• La relación entre el humano y la IA influye en los errores que puede presentar el sistema al momento de realizar una tarea

La inteligencia artificial (IA) es una revolución tecnológica y está en constante evolución. Uno de los retos que aún enfrenta es la reducción de errores, como las alucinaciones de la IA. 

“Las alucinaciones de la IA ocurren cuando los sistemas de inteligencia artificial crean o interpretan información que no está presente en la realidad”, explicó el programador web Chrystian Guanipa para El Diario.

El experto agregó que este tipo de errores pueden ocurrir por diversas razones: por la falta de datos que el algoritmo necesita para predecir de manera precisa, por un sobreajuste de los algoritmos, por errores del programa y por datos falsos que se han proporcionado.

Para evitar las alucinaciones de la IA, los desarrolladores y programadores deben ajustar el algoritmo en cada paso y perfeccionar la tecnología. 

Algunas empresas utilizan la validación rigurosa y el análisis de la calidad de datos para asegurarse de que los programas tengan las fuentes y los datos correctos para evitar los errores de predicción”, indicó Guanipa.

La transparencia es otra forma de minimizar las alucinaciones de la IA. El programador detalló que se requiere un entrenamiento de los sistemas de inteligencia artificial. El objetivo es hacer que los procesos de los sistemas de la IA sean explicables y comprensibles.

Leer más  Referendo consultivo sobre el Esequibo: los resultados
Auto-GPT: nuevo modelo de inteligencia artificial que no depende de la interacción humana
Pixabay

Otra forma de mitigar las alucinaciones de la IA es mediante la colaboración entre humanos y los sistemas. “La idea es utilizar la tecnología para complementar el conocimiento y habilidades de las personas y trabajar juntos en la toma de decisiones”, señaló el especialista.

Alucinaciones en modelos de IA

Las alucinaciones son uno de los problemas de los distintos modelos de inteligencia artificial que han salido. Este error le recuerda al usuario que la información que pueda dar este sistema no es 100 % fiable ni definitiva, manifestó David Salces, editor del portal especializado en tecnología MuyComputer.

Las alucinaciones se refieren a un comportamiento anómalo en el que un modelo genera información o percepciones falsas, sin que exista una fuente externa de estímulo que justifique su existencia”, indicó Salces en la página web. 

Algunas de las herramientas generativas de texto, imágenes, diseño, entre otras áreas, pueden proporcionar información falsa o incoherente, así como también las interpretaciones erróneas de los datos recibidos pueden ser consideradas alucinaciones de la IA.

Es decir, estas alucinaciones se generan por la interpretación de los datos de entrada que le proporciona el usuario y que la IA comprende con base en su proceso de aprendizaje. 

“El sistema, sea cual sea, GPT, Bing, o cualquier otro, puede inventar un poema y atribuírselo a un autor reconocido, puede explicar un hecho histórico basándose en narraciones equivocadas, pero lo grave es que la IA usada en otros campos como la ingeniería, la mecánica o la medicina, también puede dar fallas y producir accidentes o diagnósticos equivocados”, dijo el programador consultado.

Leer más  CICPC arrestó a una mujer por asesinar a su comadre por una deuda de 500 dólares en Aragua
Un grupo de empresarios instó a pausar por seis meses los experimentos con inteligencia artificial: ¿cuál es la razón?
Pixabay

¿Cómo se producen las alucinaciones de la IA?

El proceso comienza en el entrenamiento de la IA con datos humanos. Es como llenar un cerebro de información para que luego pueda procesarla y tomar decisiones basadas en su conocimiento. Eso se denomina aprendizaje supervisado. 

Sin embargo, también está el aprendizaje no supervisado, que se trata de un modelo de IA entrenado con datos no almacenados. Es una especie de libertad del sistema que le permite buscar la información por sí mismo para procesarla. 

En los modelos de aprendizaje supervisado, el sobreajuste de datos que el programador le brindó al sistema le ocasiona la pérdida de la capacidad de generar nuevos datos. 

“La IA puede ser de dos modelos, supervisado y no supervisado, en el primer caso la máquina se centra en los datos que tiene para dar una respuesta. Si dentro de su conocimiento no reconoce lo que se le está pidiendo, va a conseguir lo que más se parezca para cumplir con la tarea, así no sea la observación correcta. Por ejemplo, si le pide a GPT una nota sobre los hechos del 11 de abril de 2002 en Venezuela, pero esa información fue cargada en su memoria de forma subjetiva o parcializada, la respuesta que dará se basará en eso y no en la realidad. A eso se le llama alucinación”, acotó Guanipa.

Leer más  The New York Times publicó su lista de los 10 mejores libros del año 2023

En el caso contrario, en los modelos de aprendizaje no supervisado, la principal causa de alucinaciones de la IA es la falta de información que tiene la herramienta. Si el sistema no cuenta con referencias preestablecidas para analizar lo que se le está pidiendo, generará una nota incorrecta. Por ejemplo, se le pide un ensayo sobre las distintas ideologías políticas en el mundo, la IA responderá por sí misma lo que mejor le parezca, es decir, una alucinación. 

“También se pueden conseguir fallos de diseño del algoritmo. Eso es más técnico, son errores a nivel de desarrollo de la IA, de las grandes compañías que aún se encuentran probando sus modelos para reducir al mínimo esos posibles errores. Una sola equivocación en los códigos del modelo puede provocar alucinaciones posteriores del sistema”, expresó el programador. 

Auto-GPT: nuevo modelo de inteligencia artificial que no depende de la interacción humana
Pixabay

¿Cómo evitar las alucinaciones de la IA?

Con práctica y técnica humana se pueden minimizar las alucinaciones de los modelos de inteligencia artificial. En primer lugar, el desarrollador debe tener cuidado con los datos que use para el proceso de entrenamiento y de validación del sistema, es decir, el paso en el que se comprueba que se realizó de forma óptima. 

Leer más  Puntos rojos y voto forzado: las irregularidades del referendo consultivo sobre el Esequibo

Los desarrolladores podrían usar modelos de adversarios generativos (GAN, por sus siglas en inglés) para generar datos falsos que puedan ser utilizados para entrenar la red neuronal de la IA de manera que sea más resistente a las alucinaciones al poder detectar la información real de la no real.

Otro consejo para reducir las alucinaciones de la IA es usar técnicas de explicabilidad, para que el humano pueda entender cómo toma decisiones la red neuronal del sistema y qué características de los datos de entrada son más importantes para su proceso de aprendizaje. De esta forma, podría reconocer las causas de las alucinaciones y corregirlas.

Además, se puede desarrollar la IA con un sistema de conducción autónoma lo que le permitirá al modelo detectar con precisión los datos del entorno y así tomar las decisiones correctas. Estas técnicas de aprendizaje por refuerzo ya se están implementando en las pruebas de las grandes compañías para brindar un sistema que aprende de manera repetitiva a partir de la retroalimentación que recibe.

Bing es un ejemplo de inteligencia artificial generativa, porque sus responsables le dieron la capacidad de generar sus respuestas con todas las fuentes de información que existen en la red, en Internet, y puede analizar y descubrir lo que es falso y lo que es verdad. Esto reduce las alucinaciones de la IA en este modelo.

Noticias relacionadas