Hablar con quienes ya no est¨¢n: el riesgo de resucitar a los muertos con inteligencia artificial
¡®El Hormiguero¡¯ realiza un experimento a partir de un fen¨®meno emergente: empresas que recrean versiones digitales de fallecidos. Los expertos advierten de los peligros ¨¦ticos y para la salud mental
Entre l¨¢grimas, tras escuchar a sus familiares fallecidos, varias mujeres confesaban su asombro en el show televisivo El Hormiguero (Antena 3). ¡°Lo he sentido superreal y me hac¨ªa falta, me hac¨ªa mucha falta¡±, sollozaba una joven ante las c¨¢maras. ¡°Es que la voz es clavada, muy contenta por la experiencia¡±, a?ad¨ªa otra mujer sec¨¢ndose las l¨¢grimas del rostro. El programa de Pablo Motos hab¨ªa aprovechado la inteligencia artificial para recrear, a partir de audios reales, la voz de personas muertas. No solo la reproduc¨ªan, algo muy sencillo de hacer y que ha causado problemas de desinformaci¨®n por el uso de estos deepfakes con la voz de Joe Biden o el l¨ªder de los laboristas brit¨¢nicos, Keir Starmer. Los audios generados planteaban preguntas que sugestionaban a las participantes ¡ª¡±?nos qued¨® alguna conversaci¨®n pendiente?¡±¡ª en esta ¡°experiencia real¡±, como la etiqueta el programa, que se ha zambullido en prime time en un mercado emergente, el de recrear a los fallecidos con inteligencia artificial (IA). Los psic¨®logos advierten de que puede interferir en la adaptaci¨®n natural al duelo y cronificar las fases m¨¢s dolorosas.
La muerte de alguien cercano es como perder una parte del propio ser. Es el origen de varias de las dificultades en el bienestar emocional y muchos estar¨ªan dispuestos a hacer cualquier cosa para aliviar esa sensaci¨®n de p¨¦rdida abrumadora. Incluso conversar cara a cara con ese ser querido, si fuera posible. Suena a ciencia ficci¨®n, pero empresas como HereAfter, StoryFile y Replika lo est¨¢n haciendo y no es nada sobrenatural. A partir de entrevistas y otros contenidos, crean versiones digitales de individuos fallecidos para interactuar con los vivos, ya sea a trav¨¦s de chat, voz o v¨ªdeo. En China, este negocio ya est¨¢ creciendo, con varias compa?¨ªas que declaran haber creado miles de estas personas digitales o bots fantasmas. Algunas incluso afirman que pueden realizarlo con apenas 30 segundos de grabaci¨®n audiovisual del difunto.
?Te gustar¨ªa volver a hablar con un ser querido fallecido a trav¨¦s de la inteligencia artificial? #Mart¨ªnezGilEH pic.twitter.com/LZ7HNEw08a
— El Hormiguero (@El_Hormiguero) January 31, 2024
La estadounidense StoryFile entrevista a personas durante su vida por v¨ªdeo, haciendo una serie de preguntas sobre vivencias clave, como su infancia, su boda o su mayor desaf¨ªo, junto a otras que el entrevistado decida a?adir. A partir de las respuestas y con el uso de la inteligencia artificial, se genera un v¨ªdeo conversacional con el cual los hijos, padres, amigos y parientes podr¨¢n interactuar en el futuro. Seg¨²n indican, aproximadamente 5.000 personas ya han creado perfiles en la plataforma. El coste del servicio var¨ªa entre 40 y 450 euros, dependiendo del n¨²mero de preguntas que se deseen incluir. Tambi¨¦n ofrecen una prueba gratuita.
Stephen Smith, cofundador de StoryFile, explica que la empresa naci¨® hace una d¨¦cada con el objetivo preservar la memoria de supervivientes del Holocausto. Pero fue a finales de 2021 que la plataforma se convirti¨® en lo que es hoy, donde la cualquier persona puede grabar a los videos con una webcam desde su casa o en un estudio.
El cofundador subraya que la plataforma no inventa contenido, sino que ¡°recupera algo que s¨ª fue pregrabado¡±, ya existente. Pero es posible ir m¨¢s all¨¢ y a?adir informaci¨®n a partir de otros formatos. ¡°Lo hemos hecho utilizando la metodolog¨ªa conversacional de archivos. Significa usar contenido de la vida de la persona, como un v¨ªdeo donde podemos clonar la voz y luego hacer que digan cosas que dijeron en sus vidas. Por ejemplo, podr¨ªas usar un correo electr¨®nico y luego hacer que se lo lea. Si alguien quiere que eso suceda, es posible¡±, dice a EL PA?S por videoconferencia.
El peligro de engancharse
Quiz¨¢s el elemento m¨¢s perturbador es que algunas personas podr¨ªan volverse dependientes o incluso adictas a conversar con avatares virtuales, porque generan una falsa sensaci¨®n de cercan¨ªa con el muerto, como mostraba el programa de Antena 3. Las mujeres que se prestaron hablaban directamente a la voz ¨D¡°te dir¨ªa...¡±, ¡°te echo de menos¡±¨D como si esa recreaci¨®n sint¨¦tica fuera su abuela muerta un a?o antes.
¡°En un primer momento, hay alivio. Pero despu¨¦s surge una adicci¨®n, una dependencia¡±, advierte Jos¨¦ Gonz¨¢lez, psic¨®logo especialista en procesos de duelo. ¡°Si la IA reproduce literalmente c¨®mo era uno, hay un peligro grande de cronificaci¨®n, sobre todo en los v¨ªnculos muy intensos. Es f¨¢cil entrar en esa fantas¨ªa de que no ha muerto. Puede provocar esa congelaci¨®n en la fase de negaci¨®n¡±, prosigue.
El experto, que ha trabajado con m¨¢s de 20.000 personas en duelo a lo largo de 25 a?os, coincide de que los v¨ªdeos conversacionales pueden ser ¨²tiles para mantener vivos algunos recuerdos, contar an¨¦cdotas o traspasar informaci¨®n entre las generaciones con emoci¨®n. Tambi¨¦n a la hora de replicar algunas de las t¨¦cnicas que se hacen en consulta para cerrar asuntos pendientes, que no se han podido arreglar hablando. ¡°Hago unas preguntas sobre el v¨ªnculo con la persona que ha muerto, por ejemplo ¡®lo que m¨¢s me gustaba de ti¡¯ o ¡®cuando me decepcionaste m¨¢s¡¯. Con esas respuestas, el doliente escribe una carta y se la lee a una silla vac¨ªa¡±, describe. Seg¨²n sostiene, la IA podr¨ªa ser aplicada a din¨¢micas como esta, de forma puntual, siempre y cuando est¨¦ muy supervisada por un profesional.
Gonz¨¢lez se?ala que tambi¨¦n hay un riesgo asociado con lo que se expresa en esas grabaciones. Los mensajes de despedida pueden ser muy potentes y ayudar a aliviar el sufrimiento porque es el momento en que les dice a sus familiares lo tanto que les quiere, les libera de la culpa y eso hace que el duelo sea mucho m¨¢s llevadero. No obstante, si no cuenta con la supervisi¨®n de un experto, incluso con las mejores intenciones se podr¨ªa ocasionar un efecto adverso. ¡°Imagina que soy padre de una hija ¨²nica y le digo: ¡®Te dejo como objetivo vital que cuides mucho de tu madre¡¯. Puede ser muy bonito, pero tambi¨¦n puede ser una condena si la que ser¨ªa la madre est¨¢ extremamente enferma¡±, ejemplifica. Es en este instante cuando un profesional recomendar¨ªa al padre hablar de una forma diferente para prevenir la creaci¨®n de una carga emocional. Y si no existe supervisi¨®n alguna, la probabilidad de malentendidos aumenta.
Un problema ¨¦tico
?Hasta qu¨¦ punto un avatar puede ser fiel? ?A qui¨¦n pertenece? ?Qu¨¦ tipo de datos se pueden emplear para su creaci¨®n? Esos son solo algunos de los interrogantes que surgen en torno a este tema. Para Gry Hasselbalch, experta en ¨¦tica del Consejo Europeo de Investigaci¨®n, las implicaciones se ampl¨ªan a una esfera existencial: ¡°Cada tecnolog¨ªa que est¨¢ basada en el hecho o en la idea de que puede competir con los humanos genera la pregunta de qu¨¦ significa ser humano, cu¨¢les son nuestros l¨ªmites y si es posible utilizarla para superar un l¨ªmite¡±.
Hasselbalch, que tambi¨¦n es cofundadora del think tank dan¨¦s DataEthics.eu, opina que la proliferaci¨®n de avatares de difuntos supone de un dilema que va m¨¢s all¨¢ de los datos, del consentimiento o de qui¨¦n tiene los derechos. ¡°Podr¨ªa cambiar la identidad de la humanidad y del ser humano, porque cuestiona la propia idea de la mortalidad¡±, dice.
Entre varios problemas potenciales, la experta en ¨¦tica de la IA resalta la posibilidad de una herramienta que no solo recolecte el contenido de redes sociales, correos electr¨®nicos y mensajes de m¨®vil de una persona fallecida, sino tambi¨¦n sus patrones de b¨²squeda en internet. Esto podr¨ªa revelar aficiones o intereses desconocidos de la persona, desde una pasi¨®n por un animal o un deporte hasta, en el peor de los casos, un secreto oscuro.
Si la inteligencia artificial combina esta informaci¨®n con otros elementos que constituyen su identidad, pero le da mayor relevancia a ciertos aspectos, podr¨ªa resultar en la creaci¨®n de un avatar o robot que poco o nada se asemeje a c¨®mo era esa persona en la vida real. Es un escenario en que ¡°se perder¨ªa el control¡±, alerta. Y no es el ¨²nico. ¡°?Cu¨¢n f¨¢cilmente podr¨ªas ser manipulado si un ser querido que extra?as te dice para votar de cierta manera o comprar cosas espec¨ªficas? No sabemos qu¨¦ empresas surgir¨¢n detr¨¢s de esto¡±, reflexiona.
¡®Deepfakes¡¯ y ¡®copyright¡¯
Uno de los clientes de StoryFile ha sido el fallecido Sam Walton, fundador del gigantesco negocio Walmart. ¡°Trabajamos con el archivo de su empresa. Revisamos muchas horas de material, transcribimos sus discursos, sus v¨ªdeos y creamos 2.500 respuestas a preguntas que ¨¦l hab¨ªa respondido durante su vida con exactamente las mismas palabras que utiliz¨®¡±, describe. El resultado fue una recreaci¨®n digital que tiene el rostro, la voz y un holograma a tama?o real de Walton. ?Puede ser muy realista? ¡°A las personas que conocieron a Sam se les empa?an los ojos por lo realista que es¡±, asegura Alan Dranow, ejecutivo de esta compa?¨ªa. La familia del empresario hab¨ªa dado consentimiento para esta producci¨®n, pero otros famosos han tenido sus caras y palabras recreadas por IA sin un acuerdo com¨²n.
Es el caso del comediante estadunidense George Carlin, quien muri¨® en 2008, y cuya su voz y estilo fueron clonados para la creaci¨®n del podcast George Carlin: Me Alegro de Estar Muerto, publicado en YouTube a principios de enero. La pasada semana, se present¨® una demanda en el tribunal federal de Los ?ngeles solicitando que Dudesy, la empresa que lo impulsa, retire inmediatamente el especial de audio. Su hija, Kelly Carlin, ya hab¨ªa criticado la producci¨®n, en que una s¨ªntesis de voz del artista comenta episodios actuales. ¡°Mi padre pas¨® toda una vida perfeccionando su oficio desde su humanidad, cerebro e imaginaci¨®n. Ninguna m¨¢quina reemplazar¨¢ jam¨¢s su genio. Estos productos generados por IA son ingeniosos intentos de recrear una mente que nunca m¨¢s existir¨¢. Dejen que el trabajo del artista hable por s¨ª mismo¡±, dijo en la plataforma X.
Seg¨²n StoryFile, el servicio que integra lo m¨¢s avanzado en esta tecnolog¨ªa est¨¢ dirigido ¨²nicamente a un grupo selecto. ¡°No lo ofrecemos como un producto en nuestra p¨¢gina web en este momento, sino para clientes privados. No queremos que nuestra tecnolog¨ªa sea utilizada para crear un deepfake de otra persona¡±, matiza Smith.
Sin embargo, existen alternativas que s¨ª lo hacen. La empresa HeyGen, por ejemplo, permite generar v¨ªdeos con clonaci¨®n de voz, sincronizaci¨®n de labios y estilos de habla. Si no se fija con mucha cautela, es casi imposible notar que se trata de una creaci¨®n artificial. Pese a que la plataforma se presenta como una soluci¨®n para personalizar y traducir contenido en el mundo corporativo, en la pr¨¢ctica puede usarse para cualquier fin de este tipo: despedirse de un ser querido o usarlo para generar dinero.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y X o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.