• Gigantes como Google, Meta y OpenAI harán extensas revisiones en sus algoritmos para evitar la promoción de modelos de tecnologías perjudiciales 

La Casa Blanca alcanzó un acuerdo con líderes destacados en el campo de la inteligencia artificial (IA) como Amazon, Google, Meta, Microsoft y OpenAI. Esto representa un paso significativo hacia la protección y seguridad de la sociedad frente a los posibles riesgos asociados con la distribución de modelos de inteligencia artificial dañinos.

El acuerdo, considerado un “compromiso voluntario” por la Casa Blanca, implica que estas compañías líderes se comprometan a implementar medidas preventivas para evitar la propagación de modelos de IA perjudiciales en el ámbito mundial, lo que resalta un avance más en las regulaciones de las tecnologías. 

Leer más  Recomendaciones de Apple para secar un dispositivo iPhone con seguridad

Una de las claves del acuerdo es el compromiso de las empresas de realizar exhaustivas comprobaciones internas y permitir auditorías externas sobre los nuevos modelos de inteligencia artificial antes de que se lancen al público, de acuerdo con el sitio web Wired.

Aspectos destacados en el acuerdo:

-Detección y corrección de posibles sesgos o discriminaciones en los resultados generados por los modelos de IA.

-Identificación y resolución de vulnerabilidades de ciberseguridad.

-Evaluación de los riesgos asociados con posibles daños sociales más amplios que podrían surgir como consecuencia del despliegue de estas tecnologías.

Ben Buchanan, asesor especial de la Casa Blanca sobre inteligencia artificial, reiteró la responsabilidad que tienen las empresas sobre la seguridad y calidad de los servicios ofrecidos a los usuarios. 

Las compañías tienen el deber de garantizar que sus productos son seguros antes de presentarlos al público, comprobando la seguridad y capacidad de sus sistemas de IA. declaró Buchanan el 20 de julio durante una conferencia informativa.
Creadores de inteligencia artificial llegaron a un acuerdo con la Casa Blanca sobre el uso de estas herramientas: ¿en qué consiste?
Empresas cada vez invierten más en seguridad informática ante la exposición y riesgo de datos sensibles. Foto: iStock.

Otras compañías se sumaron 

Además de las reconocidas empresas como Amazon, Google, Meta, Microsoft y OpenAI, también se sumaron al acuerdo las startups Inflection y Anthropic. 

Leer más  Advierten sobre dos versiones falsas de ChatGPT que son usadas para estafar

Estas dos compañías, desarrolladoras de notables competidores de ChatGPT de OpenAI, también se comprometieron a participar en el proceso de promover prácticas seguras y responsables en el desarrollo y lanzamiento de sus productos de inteligencia artificial.

Con este acuerdo se espera que la industria de la IA pueda dar un paso hacia adelante en el fomento de la transparencia, la ética y la seguridad en el desarrollo de modelos avanzados de IA, protegiendo así los intereses y bienestar de los usuarios en general.

Leer más  Cómo activar las llamadas y videollamadas en la red social  X

“Acuerdo voluntario” entre la IA y EE UU: ¿a qué se refiere?

El acuerdo incluye un enfoque detallado en la identificación y mitigación de riesgos, abarcando áreas críticas como la privacidad y las amenazas biológicas potenciales que podrían surgir del mal uso de la inteligencia artificial. 

Para promover la transparencia y la seguridad, las organizaciones se comprometieron a informar públicamente sobre las limitaciones de sus sistemas y los posibles riesgos tanto para la seguridad como para la sociedad en general.

Una parte crucial del acuerdo se centra en el desarrollo de sistemas de marcas de agua que permitan la identificación de contenido generado por inteligencia artificial, tanto en forma de audio como imágenes. De hecho, OpenAI ya ha integrado marcas de agua en sus creaciones generadas por el modelo Dall-E, y Google está trabajando en una tecnología similar. 

Leer más  Advierten sobre dos versiones falsas de ChatGPT que son usadas para estafar
Creadores de inteligencia artificial llegaron a un acuerdo con la Casa Blanca sobre el uso de estas herramientas: ¿en qué consiste?
Foto: iStock.

Esto se presenta como una solución para abordar el creciente desafío en las redes sociales sobre discernir entre lo que es contenido real y lo que resulta ser falso, especialmente en un contexto en el que las campañas políticas están recurriendo cada vez más a la inteligencia artificial generativa en vísperas de las elecciones estadounidenses de 2024, según una publicación del diario estadounidense The New York Times.

Noticias relacionadas