Laurence Devillers: ¡°Uno es libre de enamorarse de lo que quiera. Pero si es de una m¨¢quina, es falso¡±
La cient¨ªfica francesa, experta en computaci¨®n afectiva, reflexiona sobre la relaci¨®n de los seres humanos con los productos de inteligencia artificial
Un hombre japon¨¦s de mediana edad aparece en la imagen durmiendo en su cama. Una voz proveniente de un holograma proyectado en su velador lo despierta con un buenos d¨ªas. El dibujo, una mujer de pelo celeste. ?l, con solo apretar un bot¨®n, comienza a dialogar. La m¨¢quina le advierte que lleve un paraguas y le mete prisa para que no llegue tarde al trabajo. Mientras el hombre almuerza solo en su oficina, se textea con el holograma, que le pide que llegue temprano a casa. En el bus de regreso, le avisa que estar¨¢ ah¨ª en breve. ¡°No puedo esperar a verte¡±, le responde la m¨¢quina de inteligencia artificial, que enciende las luces de la casa para recibir a su due?o. Cuando el hombre cruza el umbral, lo primero que hace es ir a verla. Ven la televisi¨®n y el hombre le dice lo bien que se siente ¡°tener a alguien en casa¡±.
El v¨ªdeo de la empresa Gatebox es uno de los ejemplos que ense?a este jueves la cient¨ªfica francesa Laurence Devillers en su presentaci¨®n en Congreso Futuro, un encuentro entre cient¨ªficos y humanistas de talla mundial celebrado en Santiago de Chile. Devillers, profesora de Inteligencia Artificial y ?tica en la Universidad de la Sorbona, lleva 20 a?os investigando la computaci¨®n afectiva. En una entrevista posterior a su presentaci¨®n en el centro de extensi¨®n del Instituto Nacional aborda las relaciones m¨¢quinas-seres humanos.
Pregunta. El hombre japon¨¦s del v¨ªdeo dice que se siente bien tener a alguien en casa, pero en realidad no hay nadie ah¨ª¡
Respuesta. S¨ª, es una ilusi¨®n total. Muchas personas pueden ser muy vulnerables a este tipo de m¨¢quinas, porque la soledad es una pesadilla, especialmente al final de la vida. Quiz¨¢ pueden hacernos compa?¨ªa. No es f¨¢cil una discusi¨®n sobre este tipo de cosas, pero no creo que simplemente haya que prohibirlas. Si te hacen m¨¢s feliz, ?por qu¨¦ no? Lo que s¨ª, hay que tener en cuenta a d¨®nde van tus datos obtenidos por la m¨¢quina, qu¨¦ grabaciones recopila, con qu¨¦ prop¨®sito accede a tu informaci¨®n¡ Tambi¨¦n que son una especie de adicci¨®n. Podemos pasar demasiado tiempo interactuando con este nadie, como dice usted. Aunque no es nadie, es algo que viene de ti porque hablas con una m¨¢quina que aprende de tu historia, de tus gustos¡. Este recuerdo de lo que eres tiene una manera maravillosa de manipularte. Ese es el problema.
P. ?C¨®mo se aborda ese problema?
R. Hay que desarrollar normas para este tipo de m¨¢quinas. Hay tres tipos de dimensiones muy importantes: una es la ley, con sus l¨ªneas rojas. Otra es ayudar a las empresas del rubro a construir un sistema alineado con la ley. Y la tercera es intentar que las directrices ¨¦ticas est¨¦n disponibles para todos en la sociedad.
P. ?Cu¨¢n delicado es que la gente que usa estas m¨¢quinas confunda la realidad con la realidad virtual?
R. La mayor¨ªa del tiempo no hay confusi¨®n. Es el mismo cuerpo. Lo que pasa es que en la realidad virtual puedes hacer lo que quieras, no hay reglas¡ En la serie Westworld mucha gente intenta matar, robar, porque no hay pecado, pero no es cierto. Finalmente, lo que hagas en el espacio virtual tambi¨¦n tendr¨¢ algunas consecuencias en tu vida real. Y debemos tener algunas reglas, al igual que en la vida real.
P. Es posible que pasemos cada vez m¨¢s tiempo en la realidad virtual, donde no hay consecuencias.
R. S¨ª, es un riesgo. Si pasas toda tu vida en esta realidad virtual, eres solo un cliente en la matrix. Necesitamos educarnos sobre este sistema para usarlo bien. Tambi¨¦n est¨¢ el problema de g¨¦nero, racial, la falta de diversidad cultural. Estas m¨¢quinas hacen estad¨ªsticas. El chat GPT, por ejemplo, es mayoritariamente en ingl¨¦s, porque se alimenta de mucha opini¨®n del pueblo estadounidense. Cuando preguntas por la fiesta nacional te dice el 4 de julio, que no es tu fiesta. Para evitar este tipo de cosas tenemos que construir nuestro propio sistema de IA, entenderlo mejor y utilizarlo para cosas ¨²tiles, como la ciencia, la medicina, la ecolog¨ªa. Ahora estamos como un beb¨¦ frente a algo que no entendemos.
P. Sobre el sesgo de g¨¦nero, raza¡ ?Qu¨¦ se puede hacer?
R. En estas m¨¢quinas hay mucha m¨¢s presencia de mujeres que de hombres. Cuando hablas con un chatbot, su voz es femenina. Cuando buscas un robot sexual u otro tipo de robots, hay muchas m¨¢s chicas. Una vez le pregunt¨¦ a un gran director de un banco en Francia por qu¨¦ el chatbot se llamaba Greta y no Gerk. Dijo: Habl¨¦ con mis clientes masculinos y prefieren la voz de mujer y mis clientas mujeres respondieron lo mismo. La voz femenina est¨¢ predeterminada en todas partes. Cuando compras un auto, viene por defecto con voz de mujer. Y si quieres cambiarla, tienes que seguir los pasos, lo que implica un esfuerzo que no todos hacen. ?Qu¨¦ es esta representaci¨®n en la mente de las personas? ?Creen que es algo positivo? La pregunta es por qu¨¦ no hay hombres robots para mujeres.
P. ?Nadie los pide?
R. Hay dos cosas. Una es que los que est¨¢n construyendo los robots son hombres, entonces las hacen para ellos sin pensar en las consecuencias. Est¨¢ Sof¨ªa, Alexa, Siri¡ La segunda es que efectivamente no tenemos el mismo deseo de dominio. Me gustar¨ªa que Europa, por ejemplo, aplicara una peque?a regla que diga que cuando compras un objeto capaz de hablar con los dem¨¢s se debe colocar de manera aleatoria la voz de un hombre, una mujer o una tercera opci¨®n. Si para su producto necesita que haya una voz femenina, debe explicar bien por qu¨¦.
P. En su presentaci¨®n se vio a una madre que, a trav¨¦s de unas gafas de realidad virtual, abrazaba a su hija muerta. ?El cerebro es capaz de que algo as¨ª no lo enga?e?
R. S¨ª, pero es dif¨ªcil. La representaci¨®n de personas reales en estas m¨¢quinas es una pesadilla porque normalmente piensas que hay una parte de la persona que conoces en el artefacto. Es muy dif¨ªcil mantener la distancia. Ahora hay un mercado para eso y el problema siempre es el mismo: si hay mercado, algunas personas dudan. Lo que podemos hacer es poner el foco en los est¨¢ndares que deben cumplir, las normas, las pautas.
P. ?Qu¨¦ tipo de normas se pueden establecer en este caso en particular?
R. Es un tema que hay que estudiarlo mejor, todav¨ªa no puedo decir si es bueno o malo. Algunos pa¨ªses como Jap¨®n ya conectan la cara de alguien a un robot y lo usan durante el duelo. El robot utiliza los v¨ªdeos, im¨¢genes y recuerdos grabados de la persona fallecida. Es capaz de elaborar preguntas y respuestas, como simulando una conversaci¨®n entre el usuario y el fallecido. Hasta ahora, era un sistema que pod¨ªa reproducir las frases que hab¨ªa dicho realmente la persona muerta, pero si uso chat GPT o algo por el estilo, el sistema puede inventar nuevas frases, y ah¨ª hay un problema porque pones palabras en la boca de alguien sin su consentimiento. A ra¨ªz de esto, muchas personas empezaron a ir a las residencias de ancianos para recolectar datos, diciendo que finalmente hay una manera de ser inmortal. Ah¨ª hay algo que tenemos que reflexionar.
P. Se dice que una de las dificultades para regular la inteligencia artificial es que avanza tan r¨¢pido que una vez que se aprueba la norma, ya est¨¢ obsoleta.
R. Es muy r¨¢pido, pero cuidado, la mistificaci¨®n de la IA es un gran tema. Simplemente son n¨²meros, algunos datos recopilados y mezclados con otros en un modelo que es una caja negra. Luego pueden producir algo parecido a nuestro idioma, que es maravilloso. Pero no hay verificaci¨®n, no hay fuentes, es incierto. A Google le haces una pregunta ¨Ccuyos resultados sabemos que est¨¢n manipulados porque hay gente que paga por aparecer primero-, pero hay una serie de enlaces ordenados y t¨² valoras cu¨¢les son buenos o malos, cu¨¢les te sirven para tu investigaci¨®n, cu¨¢les te parecen poco confiables, etc¨¦tera. Tomas decisiones. Ahora es la m¨¢quina de IA la que hace eso sin ninguna consciencia ni contexto del contenido. Sin moral. Nada. Solo estad¨ªsticas. Para los ni?os es una pesadilla porque tienen los resultados sin pasar por el procedimiento de c¨®mo obtenerlos. Tenemos que impulsar la IA para aprender a c¨®mo aprender.
P. Usted lleva 20 a?os en la computaci¨®n afectiva y ahora ya se habla de la posibilidad de que alguien se enamore de una m¨¢quina. ?Qu¨¦ opina?
R. Mi libertad es poder enamorarme de lo que quiero. Un ¨¢rbol, una computadora, chatbots inform¨¢ticos ?por qu¨¦ no? Es mi libertad. Pero debo entender que si me enamoro de una m¨¢quina, es falso. Recuerda la pel¨ªcula Her, cuando en un punto el chico descubre que la m¨¢quina est¨¢ enamorada de mucha gente. La unicidad del amor no est¨¢ en la m¨¢quina.
P. ?El japon¨¦s solitario de su v¨ªdeo puede que est¨¦ enamorado del la m¨¢quina?
R. No. Creo que uno puede imaginar eso m¨¢s en los ancianos. Cuando est¨¢s cerca de la muerte y tu pareja est¨¢ muerta y tus hijos no est¨¢n y te sientes realmente solo. Ah¨ª quiz¨¢ este tipo de m¨¢quinas sean un compa?ero ¨²til. Mucha gente hace lo mismo con las mascotas. Para m¨ª es obvio que si eres bastante estable en tu vida, con gente a tu alrededor, no querr¨¢s tener este tipo de m¨¢quinas. Seguro que si est¨¢s solo y no tienes mucha gente alrededor, quiz¨¢ podr¨ªa ayudar. No s¨¦. Es una pregunta que hay que pensar¡ Este es un problema de coevoluci¨®n de m¨¢quinas. La inteligencia artificial no es inteligente, pero s¨ª artificial, es un artefacto que hemos construido como un autom¨®vil. Entonces, si prefieres pasar tu tiempo con objetos, ?por qu¨¦ no? Para m¨ª, debemos ser conscientes colectivamente de los riesgos y construir m¨¢s comunidad, m¨¢s intercambios. Entender lo que pasa y ayudar a los dem¨¢s a intentar no perderse en esta transici¨®n. Es fundamental estar alertas y detectar la mejor manera de utilizar este tipo de m¨¢quinas.
Suscr¨ªbase aqu¨ª a la newsletter de EL PA?S Chile y reciba todas las claves informativas de la actualidad del pa¨ªs.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.