• Entre las consideraciones expuestas por voceros de la Casa Blanca está mitigar los riesgos de esta tecnología

El presidente de Estados Unidos, Joe Biden, tiene previsto aprobar el 30 de octubre una orden ejecutiva para permitir mayores controles de seguridad sobre los sistemas de inteligencia artificial (IA) y mitigar los riesgos de esta tecnología.

Según la información facilitada por la Casa Blanca, se trata del “conjunto de acciones más fuertes puesto en marcha por un gobierno en todo el mundo”.

Bruce Reed, subjefe de gabinete, señaló que este decreto con rango de ley es el siguiente paso de una “agresiva” estrategia para actuar en todos los frentes, aprovechando los beneficios de la IA y mitigando sus riesgos.

EE UU impulsará nueva regulación para el uso de IA: qué se sabe de la medida
EFE/EPA/Al Drago / POOL

Qué estipula la medida

La norma llega después de que en julio, 15 de las principales empresas tecnológicas del país -entre ellas Amazon, Google, Meta y Microsoft- aceptaron adoptar medidas de seguridad sobre el desarrollo de IA propuestas por la Administración Biden.

Acuerdo previo

En julio de 2023, la Casa Blanca alcanzó un acuerdo con líderes destacados en el campo de la IA, como Amazon, Google, Meta, Microsoft y OpenAI.

Entre los aspectos destacados:

-Detección y corrección de posibles sesgos o discriminaciones en los resultados generados por los modelos de IA.

-Identificación y resolución de
vulnerabilidades de ciberseguridad.

-Evaluación de los riesgos asociados con posibles daños sociales más amplios que podrían surgir como consecuencia del despliegue de estas tecnologías.

La orden ejecutiva, que el presidente estadounidense presentará hoy en la Casa Blanca,  incorpora cláusulas para proteger la privacidad, mejorar los derechos civiles, proteger a los consumidores, apoyar a los trabajadores y promover la innovación, entre otras.

Leer más  Plex, una opción para ver TV de forma gratuita: ¿qué es y cómo funciona?

Entre las medidas que incluye está la de exigir que los desarrolladores de inteligencia artificial más importantes compartan con el gobierno estadounidense los resultados de sus pruebas de seguridad y otra información que se considere “crucial”.

¿Qué es un prompt y por qué se volvió un estudio clave en la inteligencia artificial?
Imagen referencial de inteligencia artificial. Foto: Pixabay.es.

De acuerdo con la Ley de Producción de Defensa, las empresas que desarrollen cualquier sistema que pueda suponer un riesgo grave para la seguridad nacional, la seguridad económica nacional o la salud públicas deberán notificar a la Administración cuando vayan a poner a prueba ese modelo.

Leer más  Betty la fea: ¿cuándo y dónde ver la secuela de la novela colombiana?

Estas medidas garantizarán que los sistemas de inteligencia artificial sean seguros y de confianza antes de que las empresas los hagan públicos.

Encargados de los reglamentos 

El Instituto Nacional de Estándares y Tecnología será el que establezca los “rigurosos” estándares para las pruebas de seguridad; mientras que el Departamento de Interior los aplicará en sectores fundamentales.

Además, los Departamentos de Energía e Interior se encargarán de vigilar las posibles amenazas de sistemas de IA sobre infraestructuras críticas y los riesgos que pueda suponer en los campos químico, biológico, radiológico, nuclear o de ciberseguridad.
La norma incluye medidas para tratar de evitar tanto la creación de materiales biológicos peligrosos, como el fraude y el engaño mediante el uso de la IA, en este caso para etiquetar con claridad el contenido generado por la inteligencia artificial.

Regulaciones en otro países

La Unión Europea (UE) trabaja desde 2022 en un proceso para regular la IA y se aplique restricciones adecuadas según su alcance.

Entre las medidas, la UE exigirá a los desarrolladores de IA documentar el modelo como proceso de entrenamiento antes de su publicación. También se llevarán a cabo evaluaciones y pruebas de seguridad y la creación de un informe de riesgos y medidas para mitigarlos.

En cuanto a Latinoamérica, Brasil, Chile y Perú son los países que lideran la regulación de la IA, según un análisis de Bloomberg, del 30 de agosto de 2023.

Estos tres países cuentan con regulaciones específicas sobre la tecnología, donde, además, se cursan leyes de protección de datos, regulación del uso de la IA.

Otras medidas 

La orden ejecutiva también establecerá un programa para que la IA descubra y arregle vulnerabilidades del software. Finalmente se desarrollará un memorándum de seguridad nacional para el uso ético de la IA por parte de las fuerzas armadas y los servicios de inteligencia.

Leer más  Desarrollaron una prueba para determinar el riesgo de preeclampsia durante el embarazo

Asimismo, se incluyen medidas para proteger la privacidad, mejorar los derechos civiles, proteger los consumidores, apoyar a los trabajadores y promover la innovación, entre otras.

Un funcionario de la Casa Blanca explicó, en una conferencia con periodistas, que éste es el conjunto de medidas de mayor envergadura para proteger a los estadounidenses de los riesgos potenciales de la IA.

Leer más  OVF alertó sobre el impacto de la ley de pensiones en el sector privado

El mismo funcionario explicó que EE UU está trabajando con otros países para que haya unos compromisos multilaterales y una aproximación “armonizada” al control de la IA.

Sobre esta cuestión, aseguró que esta misma semana se conocerán algunos frutos. Recordó que el martes 31 de octubre la vicepresidenta Kamala Harris viajará al Reino Unido para una reunión sobre IA en la que dará un discurso sobre la posición estadounidense.  

Investigadores aseguraron que pueden burlar controles de seguridad de ChatGPT y otros chatbots
Foto: Rawpixel.com

Con información de EFE. 

Noticias relacionadas