Eliza, Terminator y el peligro encubierto de ChatGPT
El tecnocapitalismo m¨¢s voraz concentra hoy todo el poder de la inteligencia artificial, mientras se distrae a la opini¨®n p¨²blica con una fantasiosa distop¨ªa en forma de m¨¢quinas que someten a la humanidad
Era 1966 cuando Joseph Weizenbaum, pionero de la inteligencia artificial en el MIT, descubri¨® que ten¨ªa algo inc¨®modo entre manos. Hab¨ªa desarrollado uno de los primeros chatbots, una computadora capaz de fingir una conversaci¨®n humana con razonable ¨¦xito. Se llamaba Eliza, y se convertir¨ªa en un hito para esa tecnolog¨ªa incipiente. Pero tambi¨¦n en un punto de inflexi¨®n para su inventor, despu¨¦s de observar el efecto que ejerc¨ªa sobre las personas. Weizenbaum qued¨® horrorizado tras dejar que su secretaria usara Eliza: al cabo de un rato, le pidi¨® que saliera de la habitaci¨®n ...
Era 1966 cuando Joseph Weizenbaum, pionero de la inteligencia artificial en el MIT, descubri¨® que ten¨ªa algo inc¨®modo entre manos. Hab¨ªa desarrollado uno de los primeros chatbots, una computadora capaz de fingir una conversaci¨®n humana con razonable ¨¦xito. Se llamaba Eliza, y se convertir¨ªa en un hito para esa tecnolog¨ªa incipiente. Pero tambi¨¦n en un punto de inflexi¨®n para su inventor, despu¨¦s de observar el efecto que ejerc¨ªa sobre las personas. Weizenbaum qued¨® horrorizado tras dejar que su secretaria usara Eliza: al cabo de un rato, le pidi¨® que saliera de la habitaci¨®n para tener intimidad en su conversaci¨®n con la m¨¢quina. La an¨¦cdota sirve para leer con perspectiva el fen¨®meno actual del ChatGPT.
Eliza, en su versi¨®n Doctor, hab¨ªa sido creada como una parodia de las respuestas de los psicoterapeutas que devolv¨ªan en forma de preguntas las afirmaciones de los usuarios. La intenci¨®n era ¡°demostrar que la comunicaci¨®n entre una persona y una m¨¢quina era superficial¡±, pero al ver que su secretaria y muchas m¨¢s personas se abr¨ªan por completo al dialogar con Eliza, Weizenbaum descubri¨® una verdad muy distinta. ¡°No me hab¨ªa dado cuenta de que incluso cort¨ªsimas exposiciones a programas relativamente simples podr¨ªan inducir poderosos pensamientos ilusorios en gente normal¡±, escribi¨® posteriormente.
El programa de Weizenbaum era muy b¨¢sico, lejos de la sofisticaci¨®n de las actuales inteligencias conversacionales que acaparan titulares y llenan las redes con ejemplos espectaculares. Pero el efecto que provocan es el mismo que Eliza, como demostr¨® el ingeniero de Google convencido de que LaMDA, otra de estas m¨¢quinas, ten¨ªa la conciencia de un ni?o de siete a?os. Seguimos proyectando capacidades humanas en las m¨¢quinas porque nosotros, los humanos, tambi¨¦n estamos programados para charlar. Como explica el neurocient¨ªfico Mariano Sigman, lo que nos define como especie es que somos animales conversacionales: nos definimos, moldeamos y realizamos a trav¨¦s de las palabras que compartimos con otros. Dialogar est¨¢ en nuestro ADN y el cerebro resuelve esa disonancia cognitiva aceptando que ese programa, aunque sepamos que es una caja negra de silicio, es un ser que quiere comunicarse con nosotros.
Despu¨¦s de Eliza llegar¨ªa Parry, que simulaba ser un esquizofr¨¦nico, y m¨¢s tarde Alice o Siri, o las m¨¢s recientes y conocidas para el p¨²blico espa?ol, como Irene de Renfe y Bea en Bankia (asistentes virtuales desarrolladas en Espa?a). En lo peor de la crisis de reputaci¨®n del banco, con la investigaci¨®n a Rodrigo Rato por sus presuntos delitos, fue Bea la que mantuvo en pie la p¨¢gina web de la entidad con su capacidad para darle palique a quienes entraban en tromba para saturar sus sistemas y tumbar el portal. La gente no pod¨ªa resistirse a volcar su indignaci¨®n con insultos personificadores hacia ella.
Weizenbaum no entend¨ªa que la gente tomara a Eliza como el primer paso hacia una m¨¢quina que pudiera simular la inteligencia humana. Pensaba que era una fantas¨ªa peligrosa y que era ¡°monstruosamente err¨®neo¡± entenderlo como algo m¨¢s que un simple programa que ejecutaba una funci¨®n. Weizenbaum abandon¨® Eliza y se convirti¨® en un cr¨ªtico de la idea de que las m¨¢quinas pod¨ªan ser inteligentes, porque inocular ese marco mental en la sociedad ser¨ªa ¡°un veneno de efecto retardado¡±.
Las palabras de este pionero resuenan ahora en objeciones como la que hace Emily Bender, que insiste en repetir que ChatGPT no tienen nada de m¨¢gico, sino que tan solo se trata de un loro. Un loro sofisticad¨ªsimo y con muchas lecturas (¡±estoc¨¢stico¡±, matiza ella), pero un loro. Esta ling¨¹ista computacional es una de las mayores cr¨ªticas de los impulsores de estos programas que ya lo inundan todo. Herramientas que ser¨¢n muy ¨²tiles y que revolucionar¨¢n muchas actividades, sin lugar a dudas, pero que adolecen de regulaci¨®n y transparencia. Bender reclama que las compa?¨ªas que impulsan estos chats dejen de hablar en primera persona, como si fueran un ser consciente: ¡°Deben dejar de hacerla parecer humana. No deber¨ªa estar hablando en primera persona: no es una persona, es una pantalla¡±. ¡°Quieren crear algo que parezca m¨¢s m¨¢gico de lo que es, pero en realidad es la m¨¢quina creando la ilusi¨®n de ser humana¡±, denuncia Bender. ¡°Si alguien est¨¢ en el negocio de vender tecnolog¨ªa, cuanto m¨¢s m¨¢gica parezca, m¨¢s f¨¢cil ser¨¢ venderla¡±, zanja. Es un truco comercial al que no podemos resistirnos. Como Geppetto, queremos que el ni?o de madera sea un ni?o de verdad.
Liberando a Skynet
Ahora, las grandes tecnol¨®gicas est¨¢n liberando por todos sus servicios programas inteligentes en los que llevaban a?os trabajando, pero que no se hab¨ªan atrevido a diseminar entre los usuarios hasta que lleg¨® la moda, el hype, de ChatGPT. Por ejemplo, Google va a incluirla en su herramienta para empresas, Workspace, y Microsoft dentro de Office. Eso ha generado una explosi¨®n de inter¨¦s y tambi¨¦n cr¨ªticas interesantes (e interesadas), como la carta abierta que firmaban el mi¨¦rcoles un millar de especialistas en la que ped¨ªan una moratoria de seis meses en el desarrollo de chatbots. ¡°Los laboratorios de IA han entrado en una carrera sin control¡±, denuncian, ¡°para desarrollar e implementar mentes digitales cada vez m¨¢s poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable¡±. La carta la firma Elon Musk, que impuls¨® en su origen OpenAI ¡ªla empresa que ha creado ChatGPT¡ª y que, tras intentar controlarla, ahora trata de zancadillear.
?Cu¨¢l es el problema? Que los riesgos que describen Musk y los dem¨¢s firmantes son futuristas y de ciencia-ficci¨®n, no los reales y acuciantes. Hablan del peligro de crear ¡°mentes no humanas que eventualmente podr¨ªan superarnos en n¨²mero, ser m¨¢s astutas, obsoletas y reemplazarnos¡± y de que podr¨ªamos ¡°perder el control de nuestra civilizaci¨®n¡±. Eso no va a pasar ni hoy ni ma?ana: no estamos en un momento en el que Skynet, la malvada inteligencia, vaya a liberar un Terminator como en la famosa pel¨ªcula. La mayor amenaza que tenemos hoy con la inteligencia artificial es que sus capacidades est¨¢n concentrando m¨¢s poder, riqueza y recursos en un peque?o pu?ado de empresas: Google, Microsoft, Facebook, Amazon, etc¨¦tera. Precisamente, las mismas compa?¨ªas que est¨¢n acaparando todos los desarrollos y la investigaci¨®n en ese campo, esquilmando las universidades, y dirigiendo todos los avances hacia sus intereses comerciales, como denunciaba un estudio reciente en Science. Por ejemplo: el primer firmante de esa carta, junto a Musk, es Yoshua Bengio, padre de la inteligencia artificial desde la Universidad de Montreal, que vendi¨® su empresa de aprendizaje profundo a Microsoft y pas¨® a convertirse en asesor de la compa?¨ªa. Ahora, Microsoft ha invertido 10.000 millones de d¨®lares en OpenAI, para despu¨¦s integrar el chatbot en su buscador. Las empresas m¨¢s poderosas del planeta fagocitan hoy todo un campo esencial de investigaci¨®n, mientras la carta alerta de una futurible distop¨ªa en forma de Terminator.
Sin embargo, la gente desconf¨ªa. Un estudio reciente pregunt¨® a m¨¢s de 5.000 espa?oles por su percepci¨®n de la inteligencia artificial y dio con un resultado llamativo: el temor a esos desarrollos surge del recelo hacia los intereses econ¨®micos de quienes los promueven. Para entendernos: no se teme a Terminator, sino a Cyberdyne Systems, la empresa que en esa ficci¨®n gestaba el programa Skynet sin reparar en las consecuencias de abrir esa caja de Pandora.
Weizenbaum desarroll¨® Eliza con un objetivo, pero al entrar en contacto con los humanos se convirti¨® en una cosa distinta. Sus intenciones daban igual, porque las personas lo percib¨ªan de otro modo. Originalmente, el lema de Facebook era ¡°mu¨¦vete r¨¢pido y rompe cosas¡±. Cuando Mark Zuckerberg liber¨® Facebook entre los j¨®venes universitarios, ?para qu¨¦ serv¨ªa? Para recordarte el cumple de tu amigo del cole, dejarte ligotear con gente de tu entorno y permitirte compartir pensamientos con el mundo. ?Cu¨¢l fue la capacidad emergente? Colaborar en genocidios, como ha quedado confirmado en varios puntos del planeta. ?Por qu¨¦ ocurri¨® algo as¨ª? Por la codicia de sus due?os, que ya conoc¨ªan el impacto en la humanidad, pero tambi¨¦n sab¨ªan que echarle el freno perjudicaba su cuenta de resultados.
Y ahora, ?por qu¨¦ no paramos de hablar de estos programas inteligentes, que llevaban desarrollando de forma opaca durante a?os? Porque todas estas compa?¨ªas tienen prisa por hacer dinero en la nueva ¡°carrera sin control¡± de los servicios de internet. Llegados a este punto, da igual lo que haga la m¨¢quina o c¨®mo lo haga, si es un loro estoc¨¢stico o list¨ªsimo. Lo que importa es qui¨¦n lo impulsa, por qu¨¦ y lo que ese loro nos hace a nosotros, al margen de las intenciones originales, como pasaba con Eliza. Y ah¨ª deber¨ªamos poner el foco con pol¨ªticas que regulen los avances, exijan transparencia y limiten la concentraci¨®n de ese nuevo poder.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.