- Gigantes como Google, Meta y OpenAI harán extensas revisiones en sus algoritmos para evitar la promoción de modelos de tecnologías perjudiciales
La Casa Blanca alcanzó un acuerdo con líderes destacados en el campo de la inteligencia artificial (IA) como Amazon, Google, Meta, Microsoft y OpenAI. Esto representa un paso significativo hacia la protección y seguridad de la sociedad frente a los posibles riesgos asociados con la distribución de modelos de inteligencia artificial dañinos.
El acuerdo, considerado un “compromiso voluntario” por la Casa Blanca, implica que estas compañías líderes se comprometan a implementar medidas preventivas para evitar la propagación de modelos de IA perjudiciales en el ámbito mundial, lo que resalta un avance más en las regulaciones de las tecnologías.
Una de las claves del acuerdo es el compromiso de las empresas de realizar exhaustivas comprobaciones internas y permitir auditorías externas sobre los nuevos modelos de inteligencia artificial antes de que se lancen al público, de acuerdo con el sitio web Wired.
Aspectos destacados en el acuerdo:
-Detección y corrección de posibles sesgos o discriminaciones en los resultados generados por los modelos de IA.
-Identificación y resolución de vulnerabilidades de ciberseguridad.
-Evaluación de los riesgos asociados con posibles daños sociales más amplios que podrían surgir como consecuencia del despliegue de estas tecnologías.
Ben Buchanan, asesor especial de la Casa Blanca sobre inteligencia artificial, reiteró la responsabilidad que tienen las empresas sobre la seguridad y calidad de los servicios ofrecidos a los usuarios.

Otras compañías se sumaron
Además de las reconocidas empresas como Amazon, Google, Meta, Microsoft y OpenAI, también se sumaron al acuerdo las startups Inflection y Anthropic.
Estas dos compañías, desarrolladoras de notables competidores de ChatGPT de OpenAI, también se comprometieron a participar en el proceso de promover prácticas seguras y responsables en el desarrollo y lanzamiento de sus productos de inteligencia artificial.
Con este acuerdo se espera que la industria de la IA pueda dar un paso hacia adelante en el fomento de la transparencia, la ética y la seguridad en el desarrollo de modelos avanzados de IA, protegiendo así los intereses y bienestar de los usuarios en general.
“Acuerdo voluntario” entre la IA y EE UU: ¿a qué se refiere?
El acuerdo incluye un enfoque detallado en la identificación y mitigación de riesgos, abarcando áreas críticas como la privacidad y las amenazas biológicas potenciales que podrían surgir del mal uso de la inteligencia artificial.
Para promover la transparencia y la seguridad, las organizaciones se comprometieron a informar públicamente sobre las limitaciones de sus sistemas y los posibles riesgos tanto para la seguridad como para la sociedad en general.
Una parte crucial del acuerdo se centra en el desarrollo de sistemas de marcas de agua que permitan la identificación de contenido generado por inteligencia artificial, tanto en forma de audio como imágenes. De hecho, OpenAI ya ha integrado marcas de agua en sus creaciones generadas por el modelo Dall-E, y Google está trabajando en una tecnología similar.

Esto se presenta como una solución para abordar el creciente desafío en las redes sociales sobre discernir entre lo que es contenido real y lo que resulta ser falso, especialmente en un contexto en el que las campañas políticas están recurriendo cada vez más a la inteligencia artificial generativa en vísperas de las elecciones estadounidenses de 2024, según una publicación del diario estadounidense The New York Times.