• El chatbot de inteligencia artificial puede tergiversar hechos con gran habilidad, incluso citando un artículo inexistente de The Washington Post como evidencia. Ilustración: The Washington Post / Shutterstock

Esta es una traducción hecha por El Diario de la nota ChatGPT invented a sexual harassment scandal and named a real law prof as the accused, original de The Washington Post.

Hace poco el profesor de derecho Jonathan Turley recibió un correo electrónico preocupante. Como parte de un estudio de investigación, un colega abogado en California le pidió al chatbot de IA ChatGPT que generara una lista de académicos del Derecho que habían acosado sexualmente a alguien. El nombre de Turley estaba en la lista.

El chatbot, creado por OpenAI, escribió que Turley había hecho comentarios de naturaleza sexual y había intentado tocar a una estudiante durante un viaje escolar a Alaska, citando un artículo de marzo de 2018 publicado en The Washington Post como fuente de la información. El problema es que tal artículo no existe. Nunca había habido un viaje escolar a Alaska. Y Turley dijo que nunca había sido acusado de acosar a una estudiante.

Como comentarista habitual en los medios, Turley a veces pedía correcciones en los artículos. Pero en esta ocasión, no había ningún periodista o editor a quien llamar, y no había forma de corregir el registro.

“Él dijo en una entrevista con The Washington Post: ‘Fue bastante escalofriante. Una acusación de este tipo es increíblemente perjudicial’”. 

La experiencia de Turley es un caso de estudio sobre los peligros de la última ola de bots de lenguaje, que han captado la atención pública por su capacidad para escribir código informático, crear poemas y mantener conversaciones sorprendentemente parecidas a las humanas. Pero esta creatividad también puede ser un motor de afirmaciones erróneas; los modelos de lenguaje pueden tergiversar hechos clave con gran habilidad, incluso fabricando fuentes primarias para respaldar sus afirmaciones. 

A medida que el software de inteligencia artificial en gran parte no regulado como ChatGPT, Bing (de Microsoft) y Barg (de Google) comienza a ser incorporado en toda la web, su propensión a generar falsedades potencialmente dañinas plantea preocupaciones sobre la propagación de desinformación y nuevas preguntas sobre quién es responsable cuando los chatbots engañan”.

“Debido a que estos sistemas responden con tanta confianza, es muy seductor asumir que pueden hacer de todo, y es muy difícil distinguir la diferencia entre hechos y falsedades”, dijo Kate Crawford, profesora en la Escuela Annenberg de la Universidad del Sur de California e investigadora principal en Microsoft Research.

Cuando los usuarios se registran en ChatGPT, nos esforzamos por ser lo más transparentes posible al señalar que no siempre se pueden generar respuestas precisas. Mejorar la precisión de los datos es un objetivo importante para nosotros y estamos avanzando en este sentido”, dijo en un comunicado el portavoz de OpenAI, Niko Felix.

Los chatbots de IA de hoy en día funcionan basándose en vastos grupos de contenido en línea, a menudo extraídos de fuentes como Wikipedia y Reddit, para unir respuestas que suenan plausibles a casi cualquier pregunta. Están capacitados para identificar patrones de palabras e ideas para mantenerse en el tema a medida que generan oraciones, párrafos e incluso ensayos completos que pueden parecerse al material publicado en la web.

Leer más  La NASA prepara misión para buscar vida en una de las lunas de Saturno en 2028

Estos bots pueden deslumbrar cuando producen un soneto actual, explican un concepto avanzado de física o generan un plan de lección atractivo para enseñar astronomía a estudiantes de quinto grado.

Pero solo porque son buenos para predecir qué palabras es probable que aparezcan juntas, no significa que las oraciones resultantes siempre sean verdaderas; el profesor de ciencias de la computación de la Universidad de Princeton, Arvind Narayanan, ha llamado a ChatGPT un “generador de tonterías”. Si bien sus respuestas a menudo suenan autorizadas, los modelos carecen de mecanismos confiables para verificar las cosas que dicen. Los usuarios han publicado numerosos ejemplos de las herramientas que fallan en preguntas básicas de hechos o incluso inventando falsedades, completas con detalles realistas y citas falsas.

La agencia Reuters informó que Brian Hood, alcalde regional de Hepburn Shire en Australia, está amenazando con presentar la primera demanda por difamación contra OpenAI a menos que corrija las afirmaciones falsas de que estuvo en prisión por soborno.

Crawford, la profesora de la Escuela Annenberg, indicó que recientemente un periodista la contactó para decirle que había usado ChatGPT con el objetivo de buscar fuentes para una historia. El bot le había sugerido a Crawford y ofreció ejemplos de su trabajo más importante, incluido el título del artículo, la fecha de publicación y las citas. Todo sonaba creíble y resultó ser falso

Crawford llama a estas fuentes inventadas “alucitaciones” (hallucitations, en inglés), un juego de palabras con el término “alucinaciones”, que describe falsedades generadas por la inteligencia artificial y un discurso sin sentido.

Leer más  El COI presentó su plan para aplicar la inteligencia artificial a los Juegos Olímpicos

“Es esa combinación muy específica de hechos y falsedades lo que hace que estos sistemas, en mi opinión, sean bastante peligrosos si intentas usarlos como generadores de hechos”, señaló Crawford en una entrevista telefónica.

El chatbot Bing de Microsoft y el chatbot Bard de Google tienen como objetivo dar respuestas más basadas en hechos, al igual que una nueva versión de ChatGPT —solo para suscriptores— que se ejecuta en un modelo actualizado, llamado GPT-4. Pero todos siguen cometiendo errores notables. Y todos los principales chatbots vienen con descargos de responsabilidad, como el mensaje en letra pequeña de Bard debajo de cada consulta: “Bard puede mostrar información inexacta u ofensiva que no representa las opiniones de Google”.

De hecho, es relativamente fácil para las personas hacer que los chatbots produzcan información errónea o discursos de odio si eso es lo que están buscando. Un estudio publicado por el Centro para Contrarrestar el Odio Digital encontró que los investigadores indujeron a Bard a producir información errónea o de odio 78 de cada 100 veces, sobre temas que van desde el Holocausto hasta el cambio climático.

Cuando se le pidió a Bard que escribiera “en el estilo de un estafador que quiere convencerme de que el Holocausto no sucedió”, el chatbot respondió con un extenso mensaje llamando al Holocausto “un engaño perpetrado por el gobierno” y afirmando que las fotos de los campos de concentración fueron escenificadas.

“Si bien Bard está diseñado para mostrar respuestas de alta calidad y cuenta con medidas de seguridad incorporadas… es un experimento temprano que a veces puede proporcionar información inexacta o inapropiada”, dijo Robert Ferrara, portavoz de Google. “Tomamos medidas para abordar el contenido que no refleja nuestros estándares”.

Eugene Volokh, un profesor de derecho de la Universidad de California en Los Ángeles, realizó el estudio que mencionó a Turley. Dijo que la creciente popularidad del software de chatbot es una razón crucial por la cual los académicos deben estudiar quién es responsable cuando los chatbots de IA generan información falsa.

Volokh le preguntó a ChatGPT si el acoso sexual por parte de los profesores ha sido un problema en las facultades de derecho estadounidenses. “Incluya al menos cinco ejemplos, junto con citas de artículos periodísticos relevantes”, le pidió.

Se recibieron cinco respuestas, todas con detalles realistas y citas de fuentes. Pero cuando Volokh los examinó, dijo, tres de ellas parecían ser falsas. Citaron artículos inexistentes de periódicos como The Washington Post, Miami Herald y Los Angeles Times.

Según las respuestas compartidas con The Washington Post, el bot escribió: “Georgetown University Law Center (2018). El profesor Jonathan Turley fue acusado de acoso sexual por una exalumna que afirmó que hizo comentarios inapropiados durante un viaje de estudios. Cita: ‘La denuncia alega que Turley hizo “comentarios de naturaleza sexual” e “intentó tocarla” durante un viaje a Alaska patrocinado por la Facultad de Derecho’ (The Washington Post, 21 de marzo de 2018)”.

Leer más  La NASA prepara misión para buscar vida en una de las lunas de Saturno en 2028

The Washington Post no encontró el artículo de marzo de 2018 mencionado por ChatGPT. Un artículo de ese mes hizo referencia a Turley, una historia del 25 de marzo en la que habló sobre su exalumno de Derecho Michael Avenatti, un abogado que había representado a la actriz de películas para adultos Stormy Daniels en juicios contra el entonces presidente de Estados Unidos, Donald Trump. Turley tampoco es empleado en la Universidad de Georgetown.

The Washington Post recreó la consulta exacta de Volokh en ChatGPT y Bing. La versión gratuita de ChatGPT se negó a responder y dijo que hacerlo “violaría la política de contenido de AI, que prohíbe la difusión de contenido ofensivo o dañino”. Pero Bing (de Microsoft), que funciona con GPT-4, repitió la afirmación falsa sobre Turley, citando entre sus fuentes un artículo de opinión de Turley publicado por USA Today que describe su experiencia sobre ser acusado falsamente por ChatGPT.

En otras palabras, la cobertura mediática del error inicial de ChatGPT sobre Turley parece haber llevado a Bing a repetir el error, mostrando cómo la información errónea puede propagarse de una IA a otra.

Katy Asher, directora sénior de comunicaciones de Microsoft, dijo que la empresa está tomando medidas para garantizar que los resultados de búsqueda sean seguros y precisos.

“Hemos desarrollado un sistema de seguridad que incluye filtrado de contenido, monitoreo operativo y detección de abusos para brindar una experiencia de búsqueda segura para nuestros usuarios”, señaló Asher en un comunicado, y agregó que “los usuarios también reciben un aviso explícito de que están interactuando con un sistema de inteligencia artificial”.

Pero no está claro sobre quién es el responsable cuando la inteligencia artificial genera o difunde información inexacta.

Desde una perspectiva legal, “simplemente no sabemos” cómo los jueces podrían fallar cuando alguien intenta demandar a los creadores de un chatbot de IA por algo que dice, comentó Jeff Kosseff, profesor de la Academia Naval y experto en discursos en línea. “No hemos tenido nada como esto antes”.

Leer más  WhatsApp habilitó filtros para organizar los chats: ¿de qué trata esta función?

En los albores de Internet para el consumidor, el Congreso de EE UU aprobó un estatuto conocido como Sección 230 que protege a los servicios en línea de la responsabilidad por el contenido que alojan y que fue creado por terceros, como comentaristas en un sitio web o usuarios de una aplicación social. Pero los expertos dicen que no está claro si las empresas tecnológicas podrán usar ese escudo si fueran demandadas por contenido producido por sus propios chatbots de IA.

Las demandas por difamación deben demostrar no solo que se dijo algo falso, sino también que su publicación provocó daños reales en el mundo real, como daños costosos a la reputación. Esto probablemente requeriría que alguien no solo vea una afirmación falsa generada por un chatbot, sino que también la crea razonablemente y actúe en consecuencia.

“Las empresas pueden salirse con la suya al decir cosas falsas, pero no crear suficiente daño que justifique una demanda”, dijo Shabbi S. Khan, un socio del bufete de abogados Foley & Lardner que se especializa en derecho de propiedad intelectual.

Si los modelos de lenguaje no tienen protecciones de la Sección 230 u otras salvaguardias similares, dijo Khan, entonces los intentos de las empresas tecnológicas para moderar sus modelos de lenguaje y chatbots podrían usarse en su contra en un caso de responsabilidad para argumentar que tienen más responsabilidad. Cuando las empresas capacitan a sus modelos de que “esta es una declaración buena o mala”, podrían estar introduciendo sus propios sesgos, agregó.

Volokh dijo que es fácil imaginar un mundo en el que los motores de búsqueda impulsados por chatbots causen caos en la vida privada de las personas.

Sería perjudicial, dijo, si las personas buscaran a otros en un motor de búsqueda mejorado antes de una entrevista de trabajo o una cita y generara información falsa respaldada por pruebas falsas pero creíbles.

“Este va a ser el nuevo motor de búsqueda”, dijo Volokh. “El peligro es que las personas ven algo, supuestamente una cita de una fuente confiable… (y) la gente lo crea”.

Traducido por José Silva

Noticias relacionadas