- La compañía comunicó que está trabajando con otras empresas de la industria en estándares técnicos comunes para identificar contenido de IA, incluidos videos y audios. Foto: EFE
El gigante tecnológico Meta anunció este martes 6 de febrero que en “los próximos meses empezará” a etiquetar imágenes generadas con inteligencia (IA) en sus redes Facebook, Instagram y Threads.
En un comunicado, el presidente de Asuntos Globales, Nick Clegg, señala que Meta está trabajando con otras empresas de la industria en estándares técnicos comunes para identificar contenido de IA, incluidos videos y audios.
Los usuarios también pueden usar Meta AI para crear imágenes fotorrealistas mediante texto. No obstante, la empresa señala que ellos recalcan que la IA ha participado en algún proceso de la creación de la imagen con marcadores visibles que se pueden ver en las imágenes y marcas de agua invisibles y metadatos incrustados en los archivos de imagen.
El lunes 5 de febrero, la Junta de Supervisión de Meta apoyó que permaneciera en sus redes un video manipulado del presidente de Estados Unidos, Joe Biden, que salió a la luz este enero.
Este video utiliza imágenes reales de Biden colocando una pegatina que dice: “Yo voté” sobre el pecho de su nieta adulta, que se filmaron en octubre de 2022, pero la edición repite el momento en que la mano de Biden se aproxima al pecho de su nieta para que parezca que la tocó de manera inapropiada.
Además, la junta resalta que la alteración de este video es obvia y, por lo tanto, es poco probable que engañe al “usuario promedio” sobre su autenticidad.
“Sin embargo, la Junta está preocupada por la política de Medios Manipulados en su forma actual, considerándola incoherente, carente de justificación persuasiva y enfocada inapropiadamente en cómo se ha creado el contenido, en lugar de qué daños específicos pretende prevenir (por ejemplo, a procesos electorales). Meta debería reconsiderar esta política rápidamente, dado el número de elecciones en 2024”, añade.
Imágenes falsas generadas con AI preocupan a los compañías tecnológicas
A finales de enero, redes sociales como X, Instagram y Threads optaron por suprimir las búsquedas de “Taylor Swift inteligencia artificial (IA)” tras la filtración de imágenes sexuales falsas de la cantante estadounidense posiblemente creadas con IA.
Con la popularidad de la IA generativa, cada vez circulan por Internet más deepfake que usan la cara de famosos para estafas difundidas en las redes sociales: algunos de los blancos han sido el youtuber MrBeast, cuyo nombre real es Jimmy Donaldson y tiene más de 237 millones de seguidores, o el premiado actor Tom Hanks.
Con información de EFE