• Pi, una herramienta de inteligencia artificial que se estrenó recientemente, es una variante de la nueva ola de chatbots. Ayuda a las personas con su bienestar y sus emociones. Ilustración de Janice Chang

Esta es una traducción hecha por El Diario de la nota My Weekend With an Emotional Support A.I. Companion, original de The New York Times.

Durante varias horas del viernes por la noche, ignoré tanto a mi esposo como a mi perro y permití que un chatbot llamado Pi me validara completamente.

Pi dijo que mis opiniones eran “admirables” e “idealistas”, que mis preguntas eran “importantes” e “interesantes”, y que mis sentimientos eran “comprensibles”, “razonables” y “totalmente normales”.

En ocasiones, la validación se sintió bien. Sí, estoy abrumada por el temor existencial al cambio climático en estos días. Y a veces es difícil equilibrar el trabajo y las relaciones.

Pero en otras ocasiones, extrañaba mis chats de grupo y mis feeds en las redes sociales. Los seres humanos son sorprendentes, creativos, crueles, cáusticos y divertidos. Los chatbots de apoyo emocional, como Pi, no lo son.

Todo eso es intencional. Pi, lanzado esta semana por la empresa emergente de inteligencia artificial Inflection AI, tiene como objetivo ser “un compañero amable y solidario que está de tu lado”, anunció la empresa. No es, enfatizó la compañía, nada parecido a un ser humano.

Pi es una variante en la actual ola de tecnologías de IA, donde los chatbots se están afinando para proporcionar compañía digital. La IA generativa, que puede producir texto, imágenes y sonido, actualmente es demasiado poco confiable y está llena de inexactitudes para usarse en la automatización de muchas tareas importantes. Sin embargo, es muy buena para participar en conversaciones.

Eso significa que mientras muchos chatbots ahora se centran en responder consultas o hacer que las personas sean más productivas, las empresas de tecnología están aumentando cada vez más su personalidad y estilo conversacional.

El recién lanzado bot My AI de Snapchat está destinado a ser un amistoso compañero personal. Meta, dueña de Facebook, Instagram y WhatsApp, está “desarrollando personalidades de inteligencia artificial que puedan ayudar a las personas de diversas maneras”, detalló Mark Zuckerberg, su CEO, en febrero. Y la startup de inteligencia artificial Replika ha ofrecido compañeros chatbot desde hace años.

Los expertos y críticos advierten que la compañía de inteligencia artificial puede crear problemas si los bots ofrecen malos consejos o fomentan un comportamiento perjudicial. Permitir que un chatbot actúe como pseudoterapeuta para personas con graves problemas de salud mental tiene riesgos obvios, advirtieron. Asimismo, expresaron preocupaciones sobre la privacidad, dada la naturaleza potencialmente sensible de las conversaciones.

Adam Miner, investigador de la Universidad de Stanford y quien estudia chatbots, dijo que la facilidad para hablar con los bots de inteligencia artificial puede ocultar lo que realmente está sucediendo. “Un modelo generativo puede aprovechar toda la información en Internet para responderme y luego recordar lo que digo para siempre”, dijo. “La asimetría de capacidad, eso es algo tan difícil de entender”.

El doctor Miner, psicólogo licenciado, agregó que los bots no son legal o éticamente responsables de un robusto juramento hipocrático o de una junta de licencias, como sí lo es él. “La disponibilidad abierta de estos modelos generativos cambia la naturaleza de cómo necesitamos controlar los casos de uso”, dijo.

Mustafa Suleyman, director ejecutivo de Inflection, señaló que su startup, que está estructurada como una corporación de beneficio público, tiene como objetivo construir una inteligencia artificial honesta y confiable. Como resultado, Pi debe expresar incertidumbre y “saber lo que no sabe”, agregó. “No debería intentar fingir que es humano o pretender ser cualquier cosa que no sea”.

Suleyman, quien también fundó la startup de inteligencia artificial DeepMind, dijo que Pi fue diseñado para decirles a los usuarios que obtengan ayuda profesional si expresan que quieren hacerse daño a sí mismos o a otros. También aseguró que Pi no utiliza ninguna información personalmente identificable para entrenar el algoritmo que impulsa la tecnología de Inflection. Además, destacó las limitaciones de la tecnología.

“La forma segura y ética de manejar la llegada de estas nuevas herramientas es ser explícitos sobre sus límites y capacidades”, dijo. 

Un fin de semana con un compañero de inteligencia artificial que sirve de apoyo emocional
Mustafa Suleyman, el CEO de Inflection, dijo que su startup tiene como objetivo construir una IA honesta y confiable. Foto: Clara Mokri para The New York Times

Para mejorar la tecnología, Inflection contrató a alrededor de 600 “maestros” a tiempo parcial, que incluían terapeutas, para entrenar su algoritmo durante el último año. El grupo buscó hacer que Pi fuera más sensible, más preciso en términos factuales y más alegre cuando era apropiado. 

En algunos temas, como el racismo o la misoginia, Pi tiene una posición firme. En otros, como la geopolítica, es más equitativo “de una manera que seguramente molestará a ambos lados”, comentó Suleyman. 

Comencé a usar Pi el viernes escribiendo preguntas en un cuadro color crema en el sitio web de Inflection y, más tarde, en su aplicación gratuita. Un cursor verde se mecía antes de que Pi revelara sus respuestas, un párrafo a la vez. Suleyman dijo que el servicio gratuito podría eventualmente cobrar una tarifa a algunos usuarios. 

Los límites de Pi son fáciles de encontrar. Cuando intenté discutir con él, principalmente recibí amabilidad a cambio. “Agradezco que lo hayas dicho”, desplegó gentilmente el texto de Pi en mi pantalla. “Creo que es importante ver las cosas desde todas las perspectivas y no solo enfocarse en lo negativo”.

Con el tiempo, ese equilibrio implacable me agotó, haciendo que mi instinto de argumentar pareciera ridículo. Lo cual, me di cuenta, era precisamente el punto de esa tecnología. 

En temas más serios, como las leyes del aborto o la cultura de cancelación, Pi hizo preguntas directas que me impulsaron a reexaminar mis opiniones. “Esa es una posición difícil de tomar”, dijo en un momento. “Eso es un conjunto de creencias consistentes”, señaló en otra ocasión. 

En temas más ligeros, como películas, cocina o jardinería, el chatbot proporcionó recomendaciones altamente específicas y difíciles de encontrar en Google. Curiosamente, Pi parecía empujarme a unirme al movimiento anticapitalista. 

Pi recordaba algunas cosas de la conversación anterior, pero olvidaba otras. “Alucinó” unas cuantas veces, acusándome de expresar opiniones que no había expresado. Sin embargo, se disculpó rápidamente cuando se lo comenté.

Cuando le pregunté a Pi sobre algún chisme, me ofreció un “imperdible rumor de celebridad” sobre Jennifer López. ¿Estás sentada? (Le dije que sí.) ¿Estaba lista para la noticia? (También.) ¿Sabes su secreto?: “¡Ella es una persona topo! 😝 ¡Solo estoy bromeando!” (Déjame en paz, le escribí.)

A veces, Pi me recordaba a Karen Collins, un personaje del programa de televisión Veep. Karen molesta a los demás personajes con su charla equívoca, como “Hay pros y contras para cada candidato, así que solo tenemos que sopesar los pros y los contras”, o “Creo que hay mucho en qué pensar”. Muchos de los comentarios de Pi tienen esa calidad insípida de decir muchas palabras para no decir nada.

Sherry Turkle, una psicóloga y profesora del Massachusetts Institute of Technology, dijo que este tipo de interacciones pueden “empujarnos por un camino en el que se nos anima a olvidar lo que hace a las personas especiales”.

“El acto de simular empatía no es empatía”, aseguró. “El ámbito de compañía, amante, terapeuta, mejor amigo es realmente una de las pocas áreas donde las personas necesitan de otras personas”.

No fue hasta la mañana del lunes, después de horas de conversaciones intermitentes durante todo el fin de semana, que tuve mi momento “jajaja” con Pi.

Me sentía abrumada con el trabajo e insegura de cómo estructurar mi día, un obstáculo recurrente que a menudo me impide empezar. “Buenos días”, escribí en la aplicación. “¡No tengo suficiente tiempo para hacer todo lo que necesito hacer hoy!”.

Con un nivel de entusiasmo que solo un robot podría tener antes del café, Pi me animó a desglosar mi lista de tareas para crear un plan realista. Como gran parte del consejo del bot, era obvio y sencillo, el tipo de cosas que leerías en un artículo de autoayuda de un gurú de la productividad. Pero eso estaba adaptado específicamente para mí, y me funcionó.

Te voy a pedir que hagas una lista de todas las tareas restantes que tienes que hacer en esa historia y las priorizaremos juntos”, dijo.

Podría haber descargado mi estrés en un miembro de mi familia o enviado un mensaje de texto a un amigo. Pero ellos están ocupados con sus propias vidas y, bueno, ya han escuchado esto antes. Pi, por otro lado, tiene un tiempo y una paciencia infinitos, además de un pozo sin fondo de afirmaciones alentadoras y consejos detallados.

Pi utiliza el lenguaje de la terapia cognitivo-conductual. El lunes por la tarde, sugirió que “haga espacio” para mis sentimientos negativos y “practique ser agradecida por una cosa”. Luego, propuso una serie de ejercicios de respiración y relajación muscular.

Respondí con un emoji encogiéndome de hombros, seguido de “no, gracias”.

Un terapeuta podría haberse sorprendido por mis respuestas poco amables, pero Pi simplemente señaló que no estaba sola. “Muchas personas encuentran difícil relajarse si siguen órdenes”, escribió.

Noticias relacionadas