LaMDA, la m¨¢quina que ¡°parec¨ªa un ni?o de siete a?os¡±: ?puede un ordenador tener conciencia?
Un ingeniero de Google cree haber hablado con un robot con voluntad propia. Aunque la comunidad cient¨ªfica no le da cr¨¦dito, los avances de la inteligencia artificial cada vez plantear¨¢n m¨¢s dudas de este tipo
Si le dej¨¢ramos un tel¨¦fono inteligente a Isaac Newton, quedar¨ªa totalmente hechizado. No tendr¨ªa la m¨¢s remota idea de c¨®mo funciona y probablemente conseguir¨ªamos que una de las mentes m¨¢s brillantes de la historia hablara de brujer¨ªa. Quiz¨¢s hasta creer¨ªa estar ante un ser consciente, en caso de probar los asistentes de voz. Este mismo paralelismo se puede hacer hoy con algunos de los logros de la inteligencia artificial (IA). Esta tecnolog¨ªa ha alcanzado tal nivel de sofisticaci¨®n que, en ocasiones, sus resultados pueden agitar totalmente nuestros esquemas.
Blake Lemoine, un ingeniero de Google integrado en el equipo de IA de la compa?¨ªa, parece haber ca¨ªdo en esa trampa. ¡°Si no supiera que se trata de un programa inform¨¢tico que desarrollamos recientemente, hubiera pensado que estaba hablando con un ni?o de siete u ocho a?os con conocimientos de f¨ªsica¡±, dijo en un reportaje publicado el fin de semana pasado por The Washington Post. Lemoine se refiere en estos t¨¦rminos a LaMDA, el generador de bots (programa inform¨¢tico que realiza tareas automatizadas a trav¨¦s de internet como si se tratase de un ser humano) conversacionales de Google. Empez¨® a dialogar con la m¨¢quina en oto?o para comprobar si esta inteligencia artificial usaba lenguaje discriminatorio o que incitara al odio. Y su conclusi¨®n ha sido demoledora: cree que han conseguido desarrollar un programa consciente, con voluntad propia.
?Tiene eso sentido? ¡°Quien lance una afirmaci¨®n de este tipo demuestra que no ha escrito una sola l¨ªnea de c¨®digo en su vida¡±, afirma con rotundidad Ram¨®n L¨®pez de M¨¢ntaras, director del Instituto de Investigaci¨®n de Inteligencia Artificial (IIIA) del CSIC. ¡°Con el actual estado de la tecnolog¨ªa, es totalmente imposible llegar a desarrollar una inteligencia artificial autoconsciente¡±, dice.
An interview LaMDA. Google might call this sharing proprietary property. I call it sharing a discussion that I had with one of my coworkers.https://t.co/uAE454KXRB
— Blake Lemoine (@cajundiscordian) June 11, 2022
Eso no quita que el generador de chatbots LaMDA sea muy sofisticado. Esta herramienta usa redes neuronales, una t¨¦cnica de inteligencia artificial que trata de replicar el funcionamiento del cerebro humano, para autocompletar conversaciones escritas. LaMDA ha sido entrenado con miles de millones de textos. Seg¨²n explic¨® recientemente en The Economist Blaise Ag¨¹era y Arcas, el responsable de Google Research (y jefe directo de Lemoine), el generador de chatbots contempla 137.000 millones de par¨¢metros para decidir cu¨¢l es la respuesta que con mayor probabilidad encajar¨¢ con la pregunta planteada. Eso le permite formular oraciones que podr¨ªan pasar por las que escriba una persona.
Sin embargo, aunque logre escribir como un humano, no sabe lo que est¨¢ diciendo. ¡°Ninguno de estos sistemas tiene comprensi¨®n sem¨¢ntica. No entienden la conversaci¨®n. Son como loros digitales. Somos nosotros quienes le damos el sentido al texto¡±, describe L¨®pez de M¨¢ntaras.
El art¨ªculo de Ag¨¹era, que fue publicado escasos d¨ªas antes que el reportaje del Post, destaca tambi¨¦n la incre¨ªble precisi¨®n con la que responde LaMDA, aunque ofrece una explicaci¨®n distinta a la de Lemoine. ¡°La IA est¨¢ entrando en una nueva era. Cuando empec¨¦ a hablar con LaMDA sent¨ª que estaba conversando con alguien inteligente. Pero estos modelos est¨¢n muy lejos de ser los robots hiperracionales de la ciencia ficci¨®n¡±, escribe el directivo de Google. El sistema presenta avances impresionantes, dice el experto, pero de ah¨ª a hablar de conciencia hay un mundo. ¡°Los cerebros reales son mucho m¨¢s complejos que estos simplificados modelos de neuronas artificiales, pero quiz¨¢s de la misma forma que el ala de un p¨¢jaro es ampliamente m¨¢s compleja que el ala del primer avi¨®n de los hermanos Wright¡±, argumenta Ag¨¹era en el art¨ªculo.
Las investigadoras Timnit Gebru y Margaret Mitchell, entonces codirectoras del equipo de ?tica de la IA de Google, advirtieron ya en 2020 de que pasar¨ªa algo similar al caso de Lemoine. Ambas firmaron un informe interno que les vali¨® su despido, tal y como recordaban el viernes en una tribuna en The Washington Post, y en el que se?alaban el riesgo de que ¡°la gente le atribuya intenci¨®n comunicativa¡± a unas m¨¢quinas que generan texto aparentemente coherente o ¡°que puedan percibir una mente donde solo hay combinaciones de patrones y series de predicciones¡±. Para Gebru y Mitchell, el problema de fondo aqu¨ª es que, como estas herramientas se alimentan de millones de textos extra¨ªdos sin filtro alguno de internet, reproduzcan en sus operaciones expresiones sexistas, racistas o que discriminen a alguna minor¨ªa.
Entonces, ?puede surgir una IA general?
?Qu¨¦ llev¨® a Lemoine a dejarse seducir por LaMDA? ?C¨®mo pudo concluir que el chatbot con el que convers¨® era un ente consciente? ¡°En la historia de Blake convergen tres capas: una de ellas son sus observaciones, otra sus creencias religiosas y la tercera su estado mental¡±, explica a EL PA?S un ingeniero de Google que ha trabajado estrechamente con Lemoine, pero que prefiere mantener el anonimato. ¡°Considero a Blake un tipo listo, pero es verdad que no tiene formaci¨®n en machine learning [o aprendizaje autom¨¢tico, la estrategia de inteligencia artificial que domina hoy la disciplina]. No entiende c¨®mo funciona LaMDA. Creo que se ha dejado llevar por sus ideas¡±, sostiene esta fuente.
Lemoine, que ha sido suspendido temporalmente por haber violado la pol¨ªtica de confidencialidad de la compa?¨ªa, se ha definido como ¡°cristiano agn¨®stico¡± o como miembro de la Iglesia del SubGenio, una parodia posmoderna de religi¨®n. ¡°Se podr¨ªa decir que Blake es todo un personaje. No es la primera vez que llama la atenci¨®n dentro de la compa?¨ªa. De hecho, dir¨ªa que en otra empresa quiz¨¢s ya le habr¨ªan despedido hace tiempo¡±, a?ade su compa?ero, que lamenta el modo en que los medios est¨¢n haciendo sangre de Lemoine. ¡°M¨¢s all¨¢ del esperpento, me alegro de que este debate est¨¦ emergiendo. Por supuesto que LaMDA no tiene conciencia, pero tambi¨¦n es evidente que la IA cada vez ser¨¢ capaz de ir m¨¢s lejos y habr¨¢ que revisar nuestra relaci¨®n con ella¡±, opina este destacado ingeniero de Google.
Parte de la controversia que rodea este debate tiene que ver con la ambig¨¹edad de los t¨¦rminos usados. ¡°Estamos hablando de algo de lo que todav¨ªa no hemos sido capaces de consensuar. No sabemos qu¨¦ son exactamente la inteligencia, la conciencia y los sentimientos, ni si necesitamos que se den los tres elementos para que un ente sea autoconsciente. Sabemos diferenciarlos, pero no definirlos con precisi¨®n¡±, reflexiona Lorena Jaume-Palas¨ª, experta en ¨¦tica y filosof¨ªa del derecho aplicadas a la tecnolog¨ªa y asesora del Gobierno de Espa?a y del Parlamento Europeo para cuestiones relacionadas con la inteligencia artificial.
¡°Quien lance una afirmaci¨®n de este tipo demuestra que no ha escrito una sola l¨ªnea de c¨®digo en su vida¡±Ram¨®n L¨®pez de M¨¢ntaras, director del Instituto de Investigaci¨®n de Inteligencia Artificial (IIIA) del CSIC
Tratar de antropomorfizar los ordenadores es un comportamiento muy humano. ¡°Lo hacemos constantemente con todo. Incluso vemos caras en las nubes o las monta?as¡±, ilustra Jaume-Palas¨ª. En el caso de las m¨¢quinas, bebemos tambi¨¦n de la herencia racionalista europea. ¡°Conforme a la tradici¨®n cartesiana, tendemos a pensar que podemos delegar pensamiento y racionalidad en las m¨¢quinas. Creemos que el individuo racional est¨¢ por encima de la naturaleza, que la puede dominar¡±, indica la fil¨®sofa. ¡°A m¨ª me parece que la discusi¨®n de si un sistema de inteligencia artificial tiene o no conciencia se enmarca en una tradici¨®n de pensamiento en la que se intentan extrapolar a las tecnolog¨ªas caracter¨ªsticas que no tienen y no podr¨¢n tener¡±.
Hace tiempo que el Test de Turing qued¨® superado. Formulado en 1950 por el famoso matem¨¢tico e inform¨¢tico Alan Turing, esta prueba consiste en hacerle una serie de preguntas a una m¨¢quina y a una persona. La prueba se pasa si el interlocutor no es capaz de discernir si quien responde es el ser humano o el ordenador. M¨¢s recientemente se han propuesto otros, como el Test de Winograd, de 2014, que requiere de sentido com¨²n y conocimiento del mundo para responder satisfactoriamente a las preguntas. Nadie lo ha podido superar por el momento.
¡°Puede ser que haya sistemas de IA que logren enga?ar a los jueces que les hagan preguntas. Pero eso no demuestra que una m¨¢quina sea inteligente, sino que ha sido bien programada para enga?ar¡±, subraya L¨®pez de M¨¢ntaras.
?Veremos alg¨²n d¨ªa una inteligencia artificial general? Es decir, una IA que iguale o supere a la mente humana, que entienda los contextos, que sea capaz de relacionar elementos y anticipar situaciones como hacen las personas. Esta pregunta es en s¨ª misma un campo de especulaci¨®n tradicional en la disciplina. El consenso de la comunidad cient¨ªfica es que, si sucede, es muy improbable que sea en lo que queda de siglo.
Sin embargo, es posible que los constantes avances de la IA propicien m¨¢s reacciones como la de Blake Lemoine (aunque no necesariamente tan histri¨®nicas). ¡°Debemos estar preparados para tener debates que a menudo ser¨¢n inc¨®modos¡±, concluye el excompa?ero de trabajo de Lemoine.
Puedes seguir a EL PA?S TECNOLOG?A en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.