• Los demandantes expusieron la necesidad de regular el uso de la inteligencia artificial para la protección de derechos de autor

El laboratorio de investigación de inteligencia artificial estadounidense OpenAI, creador de ChatGPT, fue demandado en el estado de California (EE UU) por violar la privacidad de millones de usuarios de Internet y derechos de autor.

La demanda fue presentada el miércoles 28 de junio y publicada en la página oficial del bufete de abogados Clarkson, que afirmó que quieren representar a “gente real cuya información ha sido robada y desviada comercialmente de forma inapropiada para crear esta tecnología muy poderosa”.

En su escrito, se acusa a OpenAI de robar información privada a millones de internautas, entre ellos menores de todas las edades, con la finalidad de mejorar y desarrollar tecnología con fines de lucro.

Leer más  The New York Times publicó su lista de los 10 mejores libros del año 2023

El caso se centra principalmente en el auge de las herramientas de inteligencia artificial (IA) denominadas “generativas”, como los Chatbots (ChatGPT) y los generadores de imágenes que crean contenido original a partir de datos existentes extraídos de Internet.

Foto: Cortesía

Regulación de las tecnologías

Los demandantes expusieron la necesidad de una intervención legal inmediata que proteja los intereses y valores humanos ante la amenaza que presenta la IA de “explotar a los seres humanos sin tener en cuenta su bienestar o consentimiento”, de acuerdo con la agencia de noticias EFE.

El escrito explica que esos instrumentos de IA se nutren de información originada por humanos, como conversaciones privadas y datos médicos, obtenidos en muchos casos sin el consentimiento de uso por parte de sus creadores.

Leer más  CICPC arrestó a una mujer por asesinar a su comadre por una deuda de 500 dólares en Aragua

Además señaló que, al no haber una regulación para el uso de dichas tecnologías, esto es una amenaza para los autores de los contenidos generados por la IA.

Otras demandas contra OpenAI

OpenAI fue acusada en junio de monetizar indebidamente el código de fuente abierta (Github) para entrenar sus sistemas de inteligencia artificial.

GitHub es un sistema que aloja el código de proyectos creados o en proceso de ello. Funciona como repositorio para programadores y permite el desarrollo de software en equipos.

Creadores de ChatGPT enfrentan demanda colectiva por violación de datos personales
GitHub fue creado a partir del sistema de control de versiones Git. Foto: Pixabay.

En el mismo mes, un locutor de radio demandó al laboratorio por difamación, alegando que ChatGPT produjo un texto que le acusaba de fraude injustificadamente.

La discusión en torno a la regulación justa de la IA también ha ido tomando lugar en sectores del entretenimiento y es uno de los puntos clave de la huelga del Sindicato de Guionistas de Hollywood, quienes exigen a las grandes productoras la protección de sus derechos de autor y trabajo como escritores.

Leer más  Condenado a casi 19 años de prisión por abuso sexual contra su prima con síndrome de Down en Yaracuy

¿Qué sucede con la información generada por ChatGPT?

Un informe de Science Advances explicó que el chatbot ChatGPT-3 y otras herramientas de IA son capaces de informar y desinformar a los usuarios con más eficacia que los humanos.

La investigación, publicada el 28 de junio, fue encabezada por un equipo de la Universidad de Zúrich (Suiza) que usó la versión ChatGPT-3 para un estudio con 679 participantes.

El análisis reveló que estos tuvieron más problemas para distinguir entre los tuits hechos por humanos y los generados por el chatbot.

Leer más  Puntos rojos y voto forzado: las irregularidades del referendo consultivo sobre el Esequibo

Además, también tuvieron problemas para identificar qué mensajes generados por la inteligencia artificial eran precisos y cuáles inexactos.

Desde su lanzamiento en noviembre de 2022, el uso generalizado de ChatGPT ha suscitado preocupación pública por la posible propagación de desinformación en línea, especialmente en las plataformas de redes sociales, recuerdan los autores.

Para el estudio incluyeron a personas de habla inglesa de EE UU, el Reino Unido, Canadá, Australia e Irlanda, principalmente de edades entre 26 y 76 años.

El objetivo se centró en la evaluación de los tuits generados, tanto por humanos como GPT-3, que contenían información precisa e inexacta sobre temas como vacunas y autismo, tecnología 5G, covid-19, cambio climático y evolución, que están sujetos con frecuencia a conceptos erróneos del público.

Con información de EFE

Noticias relacionadas