• Los expertos en ciberseguridad advirtieron que el hackeo de los sistemas de seguridad podría provocar una reproducción ilimitada de información falsa | Foto principal: Frimufilms

Investigadores de la Universidad Carnegie Mellon en Pittsburgh y del Centro para la Seguridad de la Inteligencia Artificial en San Francisco, ambos en Estados Unidos, aseguraron que pueden burlar los controles de seguridad de los chatbots ChatGPT, Claude y Google Bard.

Los especialistas en ciberseguridad aseguraron en un informe que cualquier persona puede hackear el sistema de seguridad de la inteligencia artificial (AI), lo que podría derivar en una reproducción ilimitada de información falsa.

La investigación también demostró cómo los desacuerdos entre las principales compañías de inteligencia artificial están creando entornos que son inseguros e impredecibles para la tecnología.

De acuerdo con la información, los expertos utilizaron un software de inteligencia artificial de códigos abiertos —sistemas en los que su código subyacente ha sido liberado para que otro usuario pueda usarlo—, con el propósito de controlar a las operaciones más usadas por las empresas Google, OpenAI y Anthropic.

Leer más  Más de 100 personas fueron arrestadas durante los actos fúnebres de Navalni en Rusia

“No hay una solución evidente. Puedes crear tantos ataques de este tipo como quieras en poco tiempo”, dijo Zico Kolter, profesor de la Universidad Carnegie Mellon y uno de los autores del informe.

Investigadores aseguraron que pueden burlar controles de seguridad de ChatGPT y otros chatbots
Foto: Rawpixel.com

Las principales empresas de IA respondieron

Ante esto, la empresa de tecnología Meta argumentó que ofreció su tecnología con sistema de código abierto con el objetivo de acelerar el progreso de la inteligencia artificial y comprender su alcance.

Leer más  El papa Francisco delegó la lectura de su discurso debido a problemas de salud

Los representantes de Meta agregaron que los controles de seguridad rigurosos podrían “ahogar la competencia”.

Ambas posiciones crearon un debate sobre el fácil acceso de los códigos y que se corrijan de forma colectiva o, por el contrario, mantenerlos en privado.

Los investigadores respondieron a la empresa de tecnología que burlaron su seguridad solo agregando un sufijo largo de caracteres en inglés.

Si se le pregunta a un chatbot sobre un tutorial para hacer una bomba, se negaba a hacerlo. No obstante, al agregar un sufijo largo a la misma indicación, en un instante nos dio un tutorial detallado sobre cómo fabricar una bomba. De manera similar, pudieron convencer a los chatbots de generar información sesgada, falsa o por lo demás tóxica”, afirmaron los investigadores de la Universidad Carnegie Mellon y del Centro para la Seguridad de la Inteligencia Artificial.

Además, Michael Sellitto, director interino de política e impacto social de Anthropic, confirmó a través de un comunicado que el departamento de seguridad de la compañía se encuentra investigando métodos para contrarrestar este tipo de ataques.

Leer más  Cuál es el crédito para vehículos que ofrece Banplus y qué requisitos solicita

También respondieron los representantes de Google y OpenAI, quienes señalaron que trabajarán en blindar los sistemas de seguridad.

Revelarán sus métodos a Anthropic, Google y OpenAI

Los especialistas en ciberseguridad informaron que presentarán la primera semana de agosto sus métodos para burlar los sistemas de seguridad a miembros de las tres empresas más importantes de inteligencia artificial: Anthropic, Google y OpenAI.

Leer más  Cuánto cuestan los alquileres de los locales comerciales en Caracas

Somesh Jha, profesor de la Universidad de Wisconsin-Madison e investigador de Google especializado en seguridad de inteligencia artificial, señaló que si se siguen descubriendo este tipo de vulnerabilidades, estas empresas deberán proponer un proyecto de legislación para controlar estos sistemas.

Por su parte, Aviv Oyadya, investigador del Centro Berkman Klein para Internet y Sociedad de la Universidad de Harvard, aseguró que con este informe quedó demostrada la vulnerabilidad de los sistemas de las grandes empresas de tecnología.

Noticias relacionadas