• La imprecisión en los resultados de estas herramientas revivió el debate sobre la discriminación en la tecnología | Foto: iStock.

La suspensión temporal del generador de imágenes de Gemini, la inteligencia artificial (IA) de Google, causó controversia en el ámbito tecnológico durante la última semana de febrero. 

Esta medida fue tomada luego de que se hicieran virales las imágenes generadas a partir de textos por esta IA presentaban distorsiones y rasgos físicos que no correspondían a las descripciones originales. 

Estas distorsiones fueron atribuidas, según expertos y usuarios de estas herramientas, a lo que se conoce como sesgos algorítmicos, un fenómeno que plantea desafíos éticos y técnicos en el desarrollo de la inteligencia artificial.

¿Qué son los sesgos algorítmicos?

Los sesgos algorítmicos se refieren a la parcialidad o distorsión en los resultados generados por algoritmos de IA, debido a la inclusión involuntaria de prejuicios o discriminaciones presentes en los datos con los que son entrenados estos sistemas.

Leer más  Cómo sobrellevar el duelo el Día de las Madres

Uno de los ejemplos citados en el libro El imperio de los algoritmos, de la escritora y abogada argentina Cecilia Danesi, fue el de la compañía Amazon por la filtración de currículos de aspirantes a puestos de trabajos.

Se comprobó que la empresa desarrolló un sistema de IA que puntuaba de forma inferior a las mujeres frente a los hombres con iguales antecedentes profesionales”, explicó la especialista legal en su libro.

En el caso de Gemini, se encontraron ejemplos de imágenes generadas que mostraban personajes históricos con características físicas no solicitadas por los usuarios, lo que levantó críticas sobre lo que usuarios llamaron “inclusión forzada” y la falta de precisión en la representación visual.

Leer más  Deficiencia de la hormona de crecimiento en niños: señales y tratamiento

Un análisis de la revista tecnológica Wired detalló que Google buscó “ser políticamente correcto” hasta que hizo imágenes de la Segunda Guerra Mundial. Diversos usuarios comentaron en las redes sociales que el gigante tecnológico intentó generar una cultura de diversidad “que salió mal”.

¿Qué son los sesgos algorítmicos y por qué causaron problemas a la IA de Google?
Las imágenes generadas en Gemini causaron cientos de críticas entre los usuarios. Foto: captura Wired.

¿Cómo se entrenan estas herramientas de inteligencia artificial?

Para comprender cómo se entrenan estas herramientas de IA y cómo pueden surgir los sesgos algorítmicos, especialistas coinciden en la importancia de analizar el proceso de aprendizaje automático. 

Las herramientas de IA como Gemini se entrenan utilizando grandes cantidades de datos que se generan a partir de textos y esta responde con las imágenes de esa petición. 

Leer más  Un estudio reveló cómo una galaxia moldeó su estructura por el paso repetido de otra

Durante el entrenamiento, el algoritmo va buscando patrones en estos datos para aprender a generar imágenes que coincidan con las descripciones proporcionadas por el usuario.

Los datos utilizados para el entrenamiento, de acuerdo con los ejemplos anteriores, pueden contener sesgos, ya sea por la manera en que fueron recopilados, por la representación de ciertos grupos demográficos o por la interpretación subjetiva de los mismos.

Los modelos de IA alucinan y eso no es novedad, lamentablemente en este caso, Gemini alucinó con un tema que genera mucho debate y polarización”, explicó Álvaro Felipe, programador y CEO de la plataforma EDTeam, en un análisis publicado en YouTube el 28 de febrero.

Alucinaciones en la IA

Se llama alucinar en inteligencia artificial a la capacidad de los modelos de IA para generar contenidos basados en datos irreales o imprecisos.

Inteligencia artificial vs. derechos de autor: la disputa legal de los contenidos generados con estas tecnologías
Imagen referencial iStock.

¿Qué respondió Google?

Luego de difundirse imágenes sobre figuras nazis negras e inusuales fotos de rasgos interraciales, la vicepresidencia de Google reconoció que se trató de un error y alegó que identificaron dos problemas principales en estas imágenes. 

(El problema fue que) nuestro ajuste para garantizar que Gemini mostrara una variedad de personas no tuvo en cuenta los casos en los que claramente no debía mostrar una variedad”, explicó la compañía.

Otro de los problemas que identificó Google en Gemini fue que, con el tiempo, el modelo se negó a responder ciertas indicaciones por completo “interpretando erróneamente algunos prompts”.

Leer más  ¿Cómo la anemia afecta la salud femenina y cuáles son sus indicadores?

El prompt se le denomina a la frase empleada para hacer la pregunta o consulta a la IA.

Google prometió trabajar para seguir mejorando antes de reactivar esta función para los usuarios, no sin antes “realizar pruebas exhaustivas”.

Noticias relacionadas