• Elon Musk se encuentra entre los CEO y académicos que presentaron la solicitud

Un grupo de empresarios del sector tecnológico, expertos y políticos, entre ello Elon Musk, solicitaron en una carta que se suspendan durante seis meses los experimentos con inteligencia artificial (IA) “potente”. Esto debido a que consideran que “pueden plantear profundos riesgos para la sociedad y la humanidad”.

“La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de una larga pausa veraniega de la IA y no nos apresuremos a caer sin estar preparados”, se lee en la carta abierta publicada por el organismo sin ánimo de lucro Future of Life Institute y firmada por más de 1.000 personas.

El director ejecutivo de Tesla y dueño de la red social Twitter, Elon Musk; el cofundador de Apple, Steve Wozniak; los investigadores estadounidenses Yoshua Bengio, Stuart Russel y los españoles Carles Sierra y Ramón López De Mantaras son algunos de los firmantes de la misiva en la que advierten de los supuestos peligros de la IA si no se acompaña de una gestión y planificación adecuadas.

Leer más  Alimentos antioxidantes que ayudan a frenar el envejecimiento
blank

“Nadie puede entender o controlar las mentes digitales”

Los empresarios y científicos aseguraron que la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes.

blank
Los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas”, indicaron. A su juicio, “nadie, ni siquiera sus creadores, puede entender, predecir o controlar de forma fiable” a estas mentes digitales.

La agencia de noticias EFE reseñó que los firmantes enarbolan todos los miedos y peligros que en los últimos meses han resonado en foros, artículos y conversaciones cotidianas y lo hacen con un tono apocalíptico.

Leer más  #TeExplicamosElDía | Viernes 26 de mayo

“¿Debemos desarrollar mentes no humanas que podrían acabar superándonos en número, ser más inteligentes que nosotros, que nos dejen obsoletos y que nos reemplacen? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización? (…) Tales decisiones no deben delegarse en líderes tecnológicos no electos”, aseveraron. 

GPT-4, un modelo con capacidades de razonamiento avanzada

El GPT, siglas en inglés del término transformadores preentrenados generativos, es un tipo de modelo de aprendizaje artificial que se utiliza para generar lenguaje similar al humano. El GPT-4 es mucho más avanzado que los modelos anteriores.

El laboratorio OpenAI, creador de ese modelo, define el GPT-4 como su “último hito en el esfuerzo para ampliar el aprendizaje profundo”. Este nuevo sistema acepta la recepción tanto de textos e imágenes y produce texto.

No obstante, OpenAI asegura que GPT-4 sigue siendo menos capaz que las personas en muchas situaciones reales aunque “muestra un desempeño a nivel humano en varios puntos de referencia académicos y profesionales”.

Instan a que se detenga el avance del GPT-4

Los solicitantes piden que los desarrolladores trabajen con los legisladores para acelerar un sistema legal sólido en torno a la IA.

Leer más  La ruta de la hamburguesa: a dónde ir a comer en Caracas

Además, subrayaron que los sistemas potentes de inteligencia artificial únicamente deben desarrollarse cuando haya seguridad de que sus efectos son positivos y sus riesgos son manejables.

blank
Hacemos un llamamiento a todos los laboratorios de IA para que pausen de inmediato durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4”, se lee en el comunicado.
blank

También piden la intervención de los gobiernos para imponer esta moratoria en caso de que las partes implicadas se nieguen a la suspensión temporal de las investigaciones.

Leer más  La Unesco presentará directrices políticas sobre el uso de la IA en el ámbito académico

Por otra parte, la carta abierta propuso que durante los seis meses de pausa, los laboratorios de IA y los expertos independientes desarrollen e implementen un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA “que sean rigurosamente auditados y supervisados ​​por expertos externos independientes”.

Los empresarios y académicos pidieron que la investigación y el desarrollo de la IA se reenfoque en hacer que “los sistemas potentes y de última generación sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales”.

Con información de EFE.

Noticias relacionadas