• Según los ensayos realizados con esta herramienta, el porcentaje de acierto es de 98,8 %. Foto principal: EFE/Wu Hao

La compañía OpenAI, creadora de la aplicación ChatGPT, desarrolló una herramienta que permite identificar cuando una imagen es generada por inteligencia artificial (IA), especialmente cuando son hechas a partir del sistema DALL-E.

La herramienta aún está en versión de prueba y, según los primeros ensayos realizados por la compañía, se puede llegar a un porcentaje de acierto del 98,8 % en la detección de imágenes generadas por inteligencia artificial.

OpenAI, cuyo presidente es Sam Altman, declaró que las primeras pruebas de esta aplicación se harán con un grupo cerrado de científicos, investigadores y organizaciones periodísticas sin fines de lucro.

El mundo necesita formas comunes de compartir información sobre cómo se creó el contenido digital. Los estándares pueden ayudar a aclarar cómo se creó el contenido y proporcionar otra información sobre sus orígenes de una manera que sea fácil de reconocer en muchas situaciones, ya sea que el contenido sea la salida sin procesar de una cámara o una creación artística de una herramienta como DALL-E 3″, señaló OpenAI en un comunicado.

De acuerdo con OpenAI, esta herramienta de detección de contenido generado por inteligencia artificial también será compatible con Sora, que es una aplicación de la misma empresa que genera videos a partir de descripciones textuales que ingresan los usuarios.

Leer más  Comenzó el pago del bono de “Guerra Económica” para jubilados: ¿para qué alcanza?
OpenAI presentó Sora: la herramienta con IA para generar videos a partir de textos
De acuerdo con OpenAI, esta herramienta de detección de contenido generado por inteligencia artificial también será compatible con Sora. Foto: El Diario

El auge de las deepfakes

En febrero de 2024, un total de 447 expertos de varios países en inteligencia artificial, seguridad en Internet, ética digital y política global firmaron un documento en donde exhortaron a los gobiernos de varias naciones del mundo a adoptar leyes que prevengan la propagación de deepfakes (imágenes o videos falsos hiperrealistas).

Leer más  OMS: ¿Cuáles son las 15 bacterias peligrosas por su resistencia a los antibióticos?

Los intelectuales que firmaron el acta provienen de naciones como México, Brasil, Venezuela, Estados Unidos, Canadá, el Reino Unido, Australia, Japón, Italia y China; y sostienen que las imágenes generadas por inteligencia artificial suponen un asunto de seguridad de los Estados.

“(Las deepfakes) son una amenaza creciente para la sociedad y que los gobiernos deben imponer obligaciones en toda la cadena de suministro para detener su proliferación”, denunciaron los signatarios del escrito.

Leer más  Estas son las vías cerradas en Caracas por movilización del oficialismo

Según los expertos, los aspectos principales a regular por parte de los países en cuanto al uso de la inteligencia artificial para crear deepfakes son los siguientes:

-Penalizar por completo el uso de esta tecnología para crear pornografía infantil.

-Establecer sanciones penales para los que usen estas herramientas para generar y difundir contenido desinformativo.

-Que las empresas que desarrollan estos programas impidan que los usuarios los utilicen para producir deepfakes.

Un estudio de la organización de seguridad en línea Home Security Heroes (Héroes de la seguridad en casa, por su traducción en inglés), reveló que la proliferación de imágenes y videos generados por la inteligencia artificial han aumentado en 550 % entre 2019 y 2023. Esta organización recolectó los datos para este escrito entre el 15 de julio y el 29 de agosto de 2023.

Leer más  Elon Musk confirmó el traspaso del dominio de Twitter a la página web de X

“En los últimos años, la tecnología deepfake ha aumentado a niveles sin precedentes. Lo que comenzó como un esfuerzo de nicho y técnicamente complejo se ha convertido rápidamente en un fenómeno generalizado. Sin embargo, a medida que la tecnología evoluciona, difumina drásticamente las líneas entre la creatividad y el engaño, dando forma a la realidad de maneras asombrosas pero preocupantes”, concluyó Home Security Heroes en su estudio.

Noticias relacionadas