• La compañía comunicó que está trabajando con otras empresas de la industria en estándares técnicos comunes para identificar contenido de IA, incluidos videos y audios. Foto: EFE

El gigante tecnológico Meta anunció este martes 6 de febrero que en “los próximos meses empezará” a etiquetar imágenes generadas con inteligencia (IA) en sus redes Facebook, Instagram y Threads.

En un comunicado, el presidente de Asuntos Globales, Nick Clegg, señala que Meta está trabajando con otras empresas de la industria en estándares técnicos comunes para identificar contenido de IA, incluidos videos y audios.

Estamos creando herramientas líderes en la industria que pueden identificar marcadores invisibles para que podamos etiquetar imágenes de Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock”, destacó Clegg.

Los usuarios también pueden usar Meta AI para crear imágenes fotorrealistas mediante texto. No obstante, la empresa señala que ellos recalcan que la IA ha participado en algún proceso de la creación de la imagen con marcadores visibles que se pueden ver en las imágenes y marcas de agua invisibles y metadatos incrustados en los archivos de imagen.

Leer más  Cavecom-E: El pago electrónico podría desplazar a los puntos de venta en Venezuela
Meta adelantó el lanzamiento de Threads, la aplicación que busca competir con Twitter
Logo de Meta / Unsplash

El lunes 5 de febrero, la Junta de Supervisión de Meta apoyó que permaneciera en sus redes un video manipulado del presidente de Estados Unidos, Joe Biden, que salió a la luz este enero.

Este video utiliza imágenes reales de Biden colocando una pegatina que dice: “Yo voté” sobre el pecho de su nieta adulta, que se filmaron en octubre de 2022, pero la edición repite el momento en que la mano de Biden se aproxima al pecho de su nieta para que parezca que la tocó de manera inapropiada.

La publicación de Facebook no viola la política de Medios manipulados de Meta, que se aplica únicamente a videos creados mediante IA y a contenido que muestra a personas diciendo cosas que no dijeron. Dado que el video de esta publicación no fue modificado usando IA y muestra al presidente Biden haciendo algo que no hizo (no algo que no dijo), no viola la política existente”, anota la junta en un comunicado.

Además, la junta resalta que la alteración de este video es obvia y, por lo tanto, es poco probable que engañe al “usuario promedio” sobre su autenticidad.

Leer más  OIM reveló el aporte económico de los migrantes venezolanos en los países de América Latina

“Sin embargo, la Junta está preocupada por la política de Medios Manipulados en su forma actual, considerándola incoherente, carente de justificación persuasiva y enfocada inapropiadamente en cómo se ha creado el contenido, en lugar de qué daños específicos pretende prevenir (por ejemplo, a procesos electorales). Meta debería reconsiderar esta política rápidamente, dado el número de elecciones en 2024”, añade.

Leer más  Clíver Alcalá apeló su sentencia de 21 años de prisión por colaborar con las FARC

Imágenes falsas generadas con AI preocupan a los compañías tecnológicas

A finales de enero, redes sociales como X, Instagram y Threads optaron por suprimir las búsquedas de “Taylor Swift inteligencia artificial (IA)” tras la filtración de imágenes sexuales falsas de la cantante estadounidense posiblemente creadas con IA.

Con la popularidad de la IA generativa, cada vez circulan por Internet más deepfake que usan la cara de famosos para estafas difundidas en las redes sociales: algunos de los blancos han sido el youtuber MrBeast, cuyo nombre real es Jimmy Donaldson y tiene más de 237 millones de seguidores, o el premiado actor Tom Hanks.

Leer más  ¿Qué hacer en caso de una emergencia por lluvias y a dónde comunicarse?

Con información de EFE

Noticias relacionadas