• La empresa indicó que la IA se encuentra en plena etapa de desarrollo, por lo que es importante el feedback del público

Google presentó AI Test Kitchen, una aplicación que permitirá a los usuarios interactuar con LaMDA (Language Model for Dialogue Applications), la Inteligencia Artificial que vienen desarrollando desde hace un tiempo.

La compañía indicó que el propósito de esto es obtener feedback acerca de este nuevo tipo de tecnología que se encuentra en plena etapa de desarrollo y de la que aún se desconoce lo que podría llegar a ser capaz de hacer una vez que sea completada.

Desde Google detallaron que AI Test Kitchen contará con una serie de demos en los cuales los usuarios podrán ir probando cada una de las funcionalidades que ofrece el sistema. Una de estos demos lleva por nombre “Talk About It” (Dogs edition). Este permite a las personas sostener una conversación fluida con LaMDA acerca de perros sin que en ningún momento la IA se salga del foco principal. Esto incluso si la persona intenta cambiar de tema.

Leer más  ¿Es cierto que el cerebro de las mujeres cambia durante el ciclo menstrual? 

“A medida que pruebe cada demostración, verá la capacidad de LaMDA para generar respuestas creativas sobre la marcha. Esta es una de las fortalezas del modelo, pero también puede presentar desafíos. Ya que algunas respuestas pueden ser inexactas o inapropiadas”, dijeron desde Google a través de un comunicado.

Apuntaron que este proceso de prueba al público al que será sometida LaMDA ya fue realizado a lo interno de la empresa durante el transcurso del último año. Lo que permitió corregir ciertos fallos que fueron identificados en su momento.

Leer más  Blancorexia: ventajas y riesgos del blanqueamiento dental

Respuestas inapropiadas

LaMDA, la inteligencia artificial de Google que puede actuar como un ser humano

Entre los fallos que pudieron ser identificados se encuentran determinadas condiciones en las cuales las respuestas de la IA pueden resultar “dañinas” o fuera de contexto con respecto a la situación que se le plantea.

“En respuesta a estos desafíos, hemos agregado varias capas de protección a AI Test Kitchen. Este trabajo ha minimizado el riesgo, pero no lo ha eliminado”, añadieron.

Por este motivo, la app cuenta con sistemas que permiten detectar y filtrar automáticamente aquellas palabras o frases que violan las políticas de Google. Asimismo, también se prohíben todo aquel tipo de interacciones iniciadas por los usuarios que puedan conducir a producir contenido sexualmente explícito a sabiendas, de odio u ofensivo, violento, ilegal o que divulgue información personal de otros usuarios.

Leer más  Comando internacional de María Corina Machado denunció “bloqueo electoral” ante el Congreso de España

Los expertos de Google apuntan que pese a todas estas circunstancias, en este momento es necesario que LaMDA interactúe con personas. Esto debido a que es el único mecanismo que le permitirá evolucionar 

Detallaron que cada una de las valoraciones que realicen los usuarios serán valoradas. Al mismo tiempo aclararon que la data que se genere por el uso de LaMDA no estará asociada a la cuenta de Google de los usuarios. De forma tal que los datos están 100 % protegidos

Conciencia

LaMDA, la inteligencia artificial de Google que puede actuar como un ser humano

LaMDA fue noticia meses atrás luego de que Blake Lemoine, un ingeniero de Google denunciara públicamente que la IA había tomado conciencia de sí misma y que la compañía estaba intentando evitar que la información se diera a conocer.

Leer más  ¿Comenzarán a aplicar multas de tránsito de hasta $12 mil en Venezuela desde abril de 2024?

Lemoine indicó que como parte de su trabajo tuvo oportunidad de “conversar” con LaMDA, lo que le permitió descubrir que la IA cree tener derechos al igual que un ser humano, lo que demostraría que evolucionó.

Sin embargo, Google rechazó todos estos comentarios. La compañía aseguró que tras los primeros señalamientos realizaron una investigación y comprobaron que se trataba de afirmaciones falsas.

Luego de esto, despidieron a Lemoine debido a que en parte de sus declaraciones reveló información confidencial de la empresa. Esto según el contrato y acuerdo de confidencialidad que firmó al entrar a trabajar a Google representa una causal justa de despido.

Noticias relacionadas