• Los expertos consideran la nueva característica del dispositivo como una “pendiente resbaladiza” y la comparan con un episodio de Black Mirror

Esta es una traducción hecha por El Diario del artículo Alexa has a new voice — your dead relative’s, original de The Washington Post.

Durante la cumbre tecnológica de Amazon de esta semana, se le ordenó a un dispositivo Echo Dot, puesto sobre una mesita de noche, lo siguiente: “Alexa, ¿la abuela puede terminar de leerme El mago de Oz

La típica voz de Alexa resonó desde el altavoz inteligente con temática infantil y diseño de panda: “¡Está bien!”. Después, cuando el dispositivo comenzó a narrar una escena del León Cobarde, su sonido robótico fue reemplazado por una voz más humana. 

“En lugar de la voz de Alexa leyendo el libro, es la voz de la abuela del niño”, explicó entusiasmado Rohit Prasad -vicepresidente senior y científico principal de inteligencia artificial de Alexa- durante un discurso de apertura en Las Vegas. (El fundador de Amazon, Jeff Bezos, es dueño de The Washington Post).

Esa demostración fue el primer vistazo de la función más nueva de Alexa, que, aunque sigue en desarrollo, le permitiría al asistente de voz replicar las voces de las personas a partir de audios cortos. El objetivo, detalló Prasad, es generar mayor confianza con los usuarios al transmitir inteligencia artificial con los “atributos humanos de empatía y afecto”.

Leer más  Charcutería tachirense ganó cinco medallas de oro en Alemania

La nueva característica podría “hacer que los recuerdos (de nuestros seres queridos) perduren”, comentó Prasad. Aunque escuchar la voz de un familiar muerto puede tocar el corazón, también plantea una gran cantidad de preocupaciones éticas y de seguridad, según comentaron los expertos.

“No siento que nuestro mundo esté listo para una tecnología de clonación de voz fácil de usar”, indicó a The Washington Post Rachel Tobac, directora ejecutiva de SocialProof Security, con sede en San Francisco. Tal tecnología, agregó, podría usarse para manipular a la gente mediante clips falsos de audio o video.

“Si un ciberdelincuente puede replicar de manera fácil y creíble la voz de otra persona con un pequeño clip de audio, puede usar esa muestra de voz para hacerse pasar por otras personas”, agregó Tobac, una experta en seguridad cibernética. “Ese mal actor puede engañar a otros para que crean que son la persona a la que están suplantando, lo que puede provocar fraudes, pérdida de datos, apropiación de cuentas y mucho más”.

Además, existe el riesgo de desdibujar las líneas entre lo humano y virtual, según detalló Tama Leaver, profesor de estudios de Internet en la Universidad de Curtin en Australia.

Leer más  Charcutería tachirense ganó cinco medallas de oro en Alemania

“No vas a recordar que estás hablando con un aparato de Amazon (…), y de sus servicios de recolección de datos, si el dispositivo está hablando con la voz de tu abuela o abuelo, o la de otro ser querido que murió”.

“De alguna manera, es como un episodio de Black Mirror”, dijo Leaver, refiriéndose a la serie de ciencia ficción relacionada con el “lado oscuro” de la tecnológica.

Leaver agregó que la nueva característica de Alexa también plantea dudas sobre el consentimiento, particularmente para quienes nunca imaginaron que un asistente personal robótico cantaría usando su voz después de su muerte.

“Existe una pendiente resbaladiza al usar los datos de las personas fallecidas. Es espeluznante por una parte, y profundamente poco ética por otra porque nunca han considerado que esos rastros (de su voz) se usen de esa manera”, señaló.

Después de haber perdido a su abuelo recientemente, Leaver confesó que se vio tentado a querer escuchar la voz de un ser querido, pero comentó que esa posibilidad trae consigo una serie de implicaciones para las que la sociedad podría no estar preparada; por ejemplo, ¿quién tiene los derechos sobre los pequeños fragmentos que la gente deja en la web?

Leer más  Charcutería tachirense ganó cinco medallas de oro en Alemania

“Si mi abuelo me hubiera enviado 100 mensajes, ¿debería tener derecho a introducir eso en el sistema? Y si lo hago, ¿quién es el dueño? ¿Entonces Amazon posee esa grabación?, se preguntó. “¿He cedido los derechos de la voz de mi abuelo?”, agregó.

Prasad no abordó tales detalles durante el discurso del miércoles. Sin embargo, postuló que la capacidad de imitar voces era un producto de “vivir sin lugar a dudas en la era dorada de la inteligencia artificial, donde nuestros sueños y la ciencia ficción se están convirtiendo en realidad”.

Si la demostración de Amazon pasa a ser una característica real, Leaver dijo que las personas deberían comenzar a pensar en cómo se podrían usar sus voces cuando mueran.

“¿Tengo que pensar en el testamento que necesito decir: ‘Mi voz y mi historial pictórico en las redes sociales es propiedad de mis hijos, y ellos pueden decidir si quieren revivir eso en un chat conmigo o no? ‘”, comentó.

“Eso es algo extraño en la actualidad, pero probablemente sea una pregunta para la que deberíamos tener una respuesta antes de que Alexa comience a hablar como si fuera yo en un futuro”, agregó.

Traducido por José Silva

Noticias relacionadas