• El plan será presentado en el II Foro Global de Ética de la Inteligencia Artificial en Kranj (Eslovenia) | Foto principal: EFE

La Unesco lanza este lunes 5 de febrero un observatorio donde expondrá las regulaciones y medidas de control puestas en marcha por los 194 Estados miembros de la organización para asegurar un desarrollo ético de la inteligencia artificial (IA).

Gabriela Ramos, subdirectora general de Ciencias Humanas y Sociales de la Unesco, explicó en entrevista a la agencia de noticias EFE que la plataforma, ya disponible, busca ser una especie de espejo “que evidencie qué están haciendo los Estados realmente para garantizar tecnologías éticas, más allá de grandes declaraciones”.

El observatorio será presentado en el II Foro Global de Ética de la Inteligencia Artificial promovido por la Unesco y celebrado en la ciudad de Kranj (Eslovenia) con el objetivo de que los países rindan cuentas sobre qué medidas han tomado en el ámbito nacional para adoptar el Marco Ético Mundial que promovió esta organización en 2021 y suscriben sus 194 Estados.

“El problema con la IA es que se plantea como un mero avance tecnológico cuando la gran reflexión debería de ser cómo alinear esos desarrollos tan impresionantes con nuestros objetivos como sociedades y seres humanos”, destacó Ramos.

Leer más  Qué es PlutoTV, la plataforma de televisión gratuita que se puede usar desde Venezuela

Desigualdades en la tecnología

A juicio de la subdirectora general de Ciencias Humanas y Sociales de la Unesco, el dilema ético de la IA es si realmente está ayudando a construir sociedades más justas, más igualitarias que contribuyan a reducir las brechas existentes en todos esos campos.

Sobre si las sociedades son más justas en el mundo de la tecnología, Ramos explicó que esto no se cumple.

No. Por una combinación de las bases de datos a las que recurren los desarrolladores, los algoritmos usados o el entrenamiento que se hace de estas tecnologías vemos cómo, por lo general, perpetúan y reproducen las discriminaciones y sesgos que ya conocemos”, añadió.

Ramos consideró que el hecho de que sea un limitado grupo de multinacionales globales las que estén desarrollando tecnologías de IA (más del 80 % de las mismas vienen de Estados Unidos y China) y de que sobre todo están diseñadas por hombres (el 20 % de los trabajadores del sector son mujeres) es el origen de que estén perpetuando desigualdades.

Leer más  Jabón en polvo: los errores más comunes al usarlo y cómo evitar dañar la ropa

De ahí, la representante resaltó la importancia de la misión de que los países aseguren que estos desarrollos tecnológicos respeten las normas del Estado de derecho.

La Unesco creó un observatorio para monitorear regulaciones de la IA: ¿en qué consiste?
Inteligencia artificial. Foto: iStock.

Sobre cómo deben proceder los Estados, Ramos explicó que los gobiernos no pueden ir a cada desarrollador para controlar lo que hacen, “eso es imposible”, pero sí pueden regular la eliminación de sesgos en los algoritmos, pueden capacitar a sus funcionarios para supervisar mejor estas tecnologías y pueden asegurar que sean éticas con cantidad de instrumentos, como las compras gubernamentales.

Remarcó que las compras gubernamentales suelen ser el 12 % del PIB de un país, por eso la Unesco ve fundamental que los países filtren y solo puedan beneficiarse de estas compras los desarrollos tecnológicos que no discriminen a las mujeres, ni a los pobres, ni la información científica sobre el estado del medio ambiente.

Evaluaciones

La organización considera que las tecnologías basadas en IA necesitan ser evaluadas con una perspectiva ética antes de que lleguen al mercado por alguien que no esté vinculado al equipo desarrollador.

“Hablo de ojos nuevos que puedan cuestionar incluso las hipótesis que se utilizaron para construir los algoritmos, si los datos resultantes de la selección que hacen esos algoritmos respetan, en primer lugar la privacidad, y si son verdaderamente representativos de población”, comentó Ramos.

Leer más  ¿Qué es el efecto Venturi y por qué los motorizados deberían conocer sus implicaciones?

Para gobernar la ética de las tecnologías de IA, según Ramos, hay que saber cómo funcionan. Cuando haya un problema  se debería contar con una especie de caja negra de la que se sepa con qué datos se ha entrenado la herramienta y con qué algoritmos.

La subdirectora general de Ciencias Humanas y Sociales de Unesco apuntó a que el Marco Global de Ética desarrollado en 2021 contiene todos los elementos que deben tener las herramientas de IA en materia de desarrollo transparente, privacidad, promoción y defensa de los derechos y la dignidad humana, la inclusión, la igualdad o el desarrollo sostenible.

El marco de Unesco posee mecanismos de seguimiento y rendición de cuentas para saber de dónde parten los países en cuanto a este control ético a nivel nacional, una especie de diagnóstico, y qué están haciendo para mejorar. En ese sentido, para el organismo el nuevo observatorio es fundamental, debido a que se vigilará quién está pendiente de estas tecnologías y quien no.

Leer más  Detectaron la primera muerte de una morsa por gripe aviar en el ártico de Noruega
La Unesco creó un observatorio para monitorear regulaciones de la IA: ¿en qué consiste?
Foto: iStock.

La polémica de los algoritmos en las redes sociales

Según diversos especialistas en plataformas digitales y seguridad, los algoritmos a menudo suelen ser complejos y difíciles de entender, lo que lleva a influir en cómo tomar decisiones. 

La polémica en torno a los algoritmos en plataformas digitales se centra en aspectos como:

-Transparencia: la falta de transparencia puede generar preocupaciones sobre discriminación, sesgo o manipulación, ya que los usuarios pueden no comprender completamente por qué se les muestra cierto contenido o se toman ciertas decisiones automáticas. 

-Discriminación: los algoritmos pueden reflejar y amplificar sesgos existentes en los conjuntos de datos con los que fueron entrenados. Si los datos históricos tienen sesgos como prejuicios raciales o de género, los algoritmos pueden amplificar esas tendencias.

-Manipulación de la opinión pública: las plataformas digitales suelen utilizan algoritmos para personalizar el contenido que se muestra a los usuarios, lo que puede crear “burbujas de filtro” donde las personas solo ven información que refuerza sus opiniones existentes.

-Privacidad: la recopilación masiva de datos necesaria para alimentar los algoritmos plantea preocupaciones sobre la privacidad. Gigantes tecnológicos como Facebook y Google han enfrentado demandas por violaciones de seguridad y protección a la privacidad del usuario.

Noticias relacionadas