Preguntas muy humanas sobre la inteligencia artificial
Vivimos un momento impredecible, nos dicen los mayores expertos en inteligencia artificial. Ellos no tienen respuestas y los ciudadanos de a pie no somos capaces siquiera de formular las preguntas pertinentes. Viajamos al Instituto para los Estudios del Futuro de Estocolmo en busca de un poco de luz.
El cuestionario se proyecta sobre un cristal t¨¢ctil suspendido en medio de la exposici¨®n. Las preguntas se iluminan a la vista de todos: ?te implantar¨ªas un chip en el cerebro para ser m¨¢s listo?, ?dejar¨ªas a tu madre anciana o a tu beb¨¦ al cuidado de un robot?, ?deber¨ªa tener derechos dicho robot?, ?dejar¨ªas que una inteligencia artificial programada para ser imparcial fuese juez?, ?transferir¨ªas tu conciencia a la nube para vivir eternamente?¡ El espectador posa la mano sobre el ¡°S¨ª¡± o el ¡°No¡± que aparecen en pantalla. Es una suerte de g¨¹ija futurista en la que uno es el fantasma del pasado, el ente obsoleto que titubea cabreado.
Aunque te hace sentir viej¨ªsimo, la exposici¨®n Hyperhuman del Museo de Tecnolog¨ªa de Estocolmo ni siquiera es tan nueva. Se inaugur¨® hace un par de a?os, mucho antes de que ChatGPT copase las portadas de los medios generalistas y las preocupaciones globales. Much¨ªsimo antes de que Claude Shannon (1916-2001), padre del bit y la teor¨ªa de la informaci¨®n, soltase una de las frases que cierra la muestra: ¡°Visualizo un momento en el que seremos para los robots lo que los perros son para los humanos. Y yo apuesto por las m¨¢quinas¡±.
Seg¨²n muchos expertos, a¨²n no estamos ah¨ª, pero vivimos en la posible bisagra hacia la distop¨ªa. Un momento en el que todo un vicepresidente de Google deja el puesto para dedicarse a llamar la atenci¨®n sobre ¡°el problema existencial que supone la inteligencia artificial¡±. ?C¨®mo poner freno a su desarrollo en un sistema capitalista?, se preguntaba Geoffrey Hinton en una entrevista en EL PA?S. ¡°No lo s¨¦¡±, se respond¨ªa. Un momento en el que un millar de investigadores, empresarios e intelectuales de primer nivel (Elon Musk, Yuval Noah Harari, Steve Wozniak¡) firman una carta abierta pidiendo una moratoria para regular los ¡°modelos impredecibles¡± m¨¢s all¨¢ de ChatGpt4. ¡°?Deber¨ªamos desarrollar mentes no humanas que tarde o temprano nos van a superar en n¨²mero e inteligencia, torn¨¢ndonos obsoletos y reemplazables?¡±, reflexiona la misiva. Max Tegmark, profesor de Inteligencia Artificial (AI) en el MIT y presidente del Instituto Future of Life, que impuls¨® la carta, admite en sus entrevistas que ¡°no sabemos c¨®mo parar el meteorito que hemos creado¡±.
Cuando ni los mayores expertos del mundo tienen respuestas, el lego, felizmente inconsciente o sencillamente aterrorizado, ni siquiera es capaz de formular las preguntas pertinentes.
Para buscar algunas de las que nos deber¨ªamos estar haciendo, viajamos a otro lugar de Estocolmo, lejos de los brillos de ciencia ficci¨®n de la exposici¨®n. Discretamente anidado sobre el Centralbadet de la ciudad ¡ªun delicioso spa art nouveau inaugurado en 1904¡ª se encuentra el Instituto para los Estudios del Futuro, una disciplina surgida en los a?os sesenta que proyecta de manera cient¨ªfica escenarios probables a largo plazo para la humanidad. En el frondoso y h¨²medo invernadero que acoge la cafeter¨ªa de los ba?os, Gustaf Arrhenius, profesor de Filosof¨ªa, explica que el instituto que dirige no es, ¡°en absoluto¡±, un think tank: ¡°No tenemos una ideolog¨ªa, ni vendemos nada¡±. ¡°Somos muy interdisciplinares y nos hacemos preguntas que no encajan en el est¨¢ndar¡±. La principal es: ¡°?Qu¨¦ podemos hacer para alcanzar un futuro m¨¢s deseable y qu¨¦ debemos hacer para evitar los peores de entre los posibles?¡±. El instituto tiene enfrascados en distintos proyectos a un centenar de investigadores (soci¨®logos, fil¨®sofos, polit¨®logos, economistas, matem¨¢ticos¡) de una quincena de pa¨ªses y cuenta con un presupuesto de ocho millones de euros (dos de ellos subvencionados por el Gobierno sueco). Sus resultados se presentan en publicaciones cient¨ªficas, se trasladan a los pol¨ªticos y a quienes toman las decisiones (tanto en Suecia como en otros pa¨ªses de la Uni¨®n Europea), y se transmiten al gran p¨²blico. El lugar es un par¨¦ntesis humanista, un espacio para pensar sobre las generaciones futuras, la justicia social o el impacto de la tecnolog¨ªa.
La primera duda es evidente: ?Llegamos tarde al cuestionamiento de la tecnolog¨ªa? ¡°Los ciudadanos, la sociedad y, sobre todo, los reguladores van siempre por detr¨¢s de los avances¡±, dice Arrhenius, que plantea dos l¨ªneas temporales, no excluyentes, por las que la IA preocupa a los Estudios del Futuro. Por un lado, hay dilemas que ¡°ya est¨¢n aqu¨ª¡±: violaciones de la privacidad en una sociedad cada vez m¨¢s vigilada, deep fakes (bulos) imposibles de cazar o el uso burocr¨¢tico de IA, por ejemplo, para asignar pensiones, permisos o la libertad condicional de los presos. Por otro lado, hay problemas que ¡°est¨¢n a¨²n muy lejos¡±, v¨¦ase la extinci¨®n de la raza humana a manos de m¨¢quinas superinteligentes. ¡°Personalmente, m¨¢s que lo que vayan a hacer las m¨¢quinas por s¨ª mismas, me preocupa lo que pueda estar haciendo la gente con ellas¡±, dice el fil¨®sofo.
Karim Jebari, tambi¨¦n fil¨®sofo e investigador en el centro, hace la distinci¨®n tecnol¨®gica entre ambos problemas: por un lado, est¨¢ la IA d¨¦bil o especializada, con la que convivimos. Es la que nos recomienda series en Netflix, autocompleta nuestras b¨²squedas en Google, reconoce nuestra cara en el iphone, ayuda a servicios sociales a decidir si retira una custodia o charla con nosotros sobre la existencia de Dios en ChatGPT. Por otro lado, tenemos la IA fuerte, o general (IAG), una mente tan inteligente como la humana (con las ventajas de ser digital, como replicarse o aprender a velocidad vertiginosa) que podr¨ªa hacer infinidad de cosas, incluida tener nuestro destino en sus manos. A¨²n no existe. ¡°Los problemas que pueden generar son distintos, pero merece la pena explorar ambos¡±, dice Jebari, que a?ade que ¡°es desafortunado que a veces se confundan¡±.
Los inmensos dilemas que ya plantea la IA, sin necesidad de imaginar un mundo en el que los robots voten o aniquilen a la humanidad, est¨¢n solo empezando a ser abordados por los reguladores. La UE firm¨® a principios de mayo el texto de la Ley de Inteligencia Artificial, que se espera que entre en vigor en 2025. El hecho de que el cuestionamiento ¨¦tico y legislativo sea posterior a la implementaci¨®n de las tecnolog¨ªas no es necesariamente malo, dice Jebari: ¡°Los problemas importantes surgen cuando hay una aplicaci¨®n espec¨ªfica; tiene sentido mantener estas discusiones una vez que vemos c¨®mo se usan las herramientas¡±.
¡°Por naturaleza, los reguladores son lentos y la tecnolog¨ªa se mueve cada vez m¨¢s deprisa¡±, a?ade el economista Pontus Strimling, que se?ala otro matiz: ¡°Las tecnolog¨ªas generales como el motor de combusti¨®n, los ordenadores o la IA generan muchos problemas a corto plazo, pero a largo plazo crean una sociedad mejor. El riesgo cuando estos saltos tecnol¨®gicos se acortan cada vez m¨¢s es que empalmemos un periodo problem¨¢tico con el siguiente¡±.
Quiz¨¢ en parte por ello, ?habr¨ªa que pausar el desarrollo de los grandes modelos de lenguaje como pide la carta que los expertos firmaron en marzo? ¡°Creo que es una gran idea, pero no porque me preocupe la extinci¨®n de la especie, sino porque nos servir¨ªa para recuperar la sensaci¨®n de control¡±, dice Strimling. Seg¨²n el especialista en cambios culturales y normas, ¡°el gran p¨²blico, incluso la clase pol¨ªtica, siente que la tecnolog¨ªa es algo que nos ocurre, no algo que hacemos que ocurra¡±. Hemos olvidado que es una creaci¨®n humana y que ¡°estamos al mando¡±, dice. ¡°Al menos en las democracias, podemos quedarnos con lo que nos funciona de la IA y descartar lo que no queremos¡±
?Pero no es el avance imparable? ¡°Durante el ¨²ltimo a?o, el discurso dominante, especialmente desde la propia comunidad tecnol¨®gica, lo ha marcado el determinismo tecnol¨®gico: esto va a llegar, hagamos lo que hagamos. Pero, simplemente, no es cierto¡±, elabora Jabari, mencionando que a lo largo de la historia el ser humano ha cambiado o parado el desarrollo de m¨²ltiples tecnolog¨ªas. Recientemente, menciona, la clonaci¨®n humana, los alimentos transg¨¦nicos o la energ¨ªa nuclear. ¡°Cuando mucha gente piensa que algo es peligroso, los pol¨ªticos act¨²an¡±, resume el fil¨®sofo. ?Debemos frenar el desarrollo de la IA entonces? ¡°Evidentemente, si as¨ª lo creemos, estamos en una democracia; si la gente pide restricciones, se pondr¨¢n; incluso los Estados que no son democr¨¢ticos lo hacen, China tambi¨¦n echa el freno cuando siente que algo se le va de las manos¡±.
Parte del razonamiento de quienes piden una moratoria pactada por todos los actores es que la competencia entre empresas promueve avances poco cautelosos. ?Es la clave del problema que el desarrollo de la IA est¨¦ en manos privadas? ¡°Que las corporaciones lideren la carrera es problem¨¢tico¡±, dice Arrhenuis, ¡°ya que los incentivos para acatar las consideraciones ¨¦ticas podr¨ªan verse superados por el af¨¢n de lucro y el miedo a quedarse atr¨¢s frente a sus competidores¡±. Sin negarlo, Strimling a?ade, sin embargo, un matiz que arranca con una an¨¦cdota: ¡°Hace a?os, fue precisamente un desarrollador de DeepMind [laboratorio de IA adquirido por Google en 2014] el primero que me habl¨® preocupado sobre el futuro de estos modelos, mucho antes de que las ciencias sociales reaccionasen; desde entonces, he hablado con desarrolladores que sienten que est¨¢n en el Proyecto Manhattan¡±. Es decir, no cree que haya una ¡°especial reticencia¡± en el sector a ser regulado, ya que muchos especialistas viven con desasosiego los avances en los que colaboran. De hecho, el economista siente que algunos tecn¨®logos tienen una ¡°visi¨®n exagerada¡±, m¨¢s dist¨®pica que la media, del futuro. ¡°Quiz¨¢s porque ven todas las posibilidades y sus problemas derivados, pero lo hacen desde su burbuja¡±, dice. Y pone un ejemplo: ¡°He visto ingenieros inquietos porque en 2030 todo el mundo tendr¨¢ un coche aut¨®nomo y ser¨¢ el caos¡ Eso es no entender cada cu¨¢nto se compra un coche la gente normal¡±.
¡°En todo lo que rodea a la IA, la divisi¨®n entre optimistas y dist¨®picos est¨¢ cada vez m¨¢s polarizada¡±, dice la soci¨®loga Moa Bursell. En el centro de su ¨²ltimo proyecto late una de las grandes preguntas sobre la herramienta: ?puede ayudar a evitar el error y los sesgos humanos, ser m¨¢s imparcial, alinearse mejor con ciertos valores o todo lo contrario? La especialidad de Bursell no es la computaci¨®n, sino la inclusi¨®n y la diversidad del mercado laboral, y ¡°como cient¨ªfica social¡± se declara ¡°neutral¡± sobre la implementaci¨®n de inteligencias artificiales en los procesos de selecci¨®n de personal que estudia. En teor¨ªa, explica, pueden ir muy bien (un algoritmo justo libera de papeleo a los departamentos de recursos humanos, que pueden dedicar tiempo a la selecci¨®n final) o pueden salir terriblemente mal (las m¨¢quinas son ¡°mucho m¨¢s consistentes¡± que los humanos, y cuando el algoritmo se desv¨ªa, lo hace a lo bestia). Bursell ha sacado el problema del ¨¢mbito te¨®rico y analizado su implementaci¨®n en una empresa concreta para comparar a qui¨¦n contrataba tras adquirir uno de estos sistemas frente a qui¨¦n contrataba antes de recibir la ayuda de la m¨¢quina. El resultado le sorprendi¨®: el uso de la IA reforz¨® el patr¨®n de contrataci¨®n de la empresa, disminuyendo su diversidad; contrataron a m¨¢s de lo mismo¡ ¡°?Pero no fue culpa del algoritmo!¡±, dice. La IA hizo una preselecci¨®n equilibrada, fueron los gerentes quienes eligieron con m¨¢s sesgo a los finalistas. Cuando controlaban ellos mismos todo el proceso, fueron m¨¢s inclusivos. El algoritmo no se torci¨®, pero su uso hizo que los humanos se torciesen: ¡°El problema fue la interacci¨®n m¨¢quina-humano¡±. Quiz¨¢s los gerentes sintieron menos responsabilidad, o no entendieron la herramienta, o se sintieron amenazados¡ La soci¨®loga no pudo preguntar, pero extrae varias conclusiones: ¡°Crear una IA sin sesgo es solo el primer paso, su implementaci¨®n debe ser explicada y monitorizada; si nos limitamos a comprar estas herramientas para ahorrar trabajo, habr¨¢ cosas que saldr¨¢n mal¡±. Lo cual no significa que no deba usarse: ¡°No partimos de una situaci¨®n perfecta que las m¨¢quinas puedan arruinar, no es que a los humamos se nos d¨¦ genial esto, la discriminaci¨®n laboral es un problema enorme, la pregunta es si la IA puede mejorarlo o no¡±.
En otro de los despachos del instituto, Ludvig Beckman, profesor de Ciencias Pol¨ªticas, estudia qu¨¦ efectos puede tener la IA en la democracia. Tambi¨¦n en su ¨¢rea hay preguntas ¡°muy especulativas¡± sobre las futuras m¨¢quinas superinteligentes; por ejemplo, ?podr¨ªan llegar a votar los robots? El polit¨®logo menea la cabeza, pero concede: ¡°No lo creo, pero la pregunta te fuerza a reconsiderar los l¨ªmites de la inclusi¨®n y las razones por las que pensamos que no pueden votar ciertas personas u otros agentes¡±, como los ni?os, los discapacitados mentales graves, los animales¡ ?Podr¨ªan los robots tener entonces derechos? El polit¨®logo duda: ¡°Puede que haya literatura al respecto, las IA tendr¨ªan objetivos, no intereses, y aun as¨ª me cuesta ver el da?o moral impl¨ªcito en no respetar los intereses de una m¨¢quina¡±, dice Beckman. ?Podr¨ªa regularse al menos no ser cruel con m¨¢quinas que aparentan ser casi humanas? ¡°Es un razonamiento interesante porque as¨ª empez¨® el movimiento por los derechos de los animales, se prohibi¨® la crueldad innecesaria, no pensando en el animal, sino en nuestra propia moralidad, porque maltratarlos nos brutalizaba como seres humanos¡±.
Discutido lo que a¨²n estar¨ªa por llegar, Beckman prefiere enfocarse en la transparencia y la legitimidad democr¨¢tica de la toma de decisiones p¨²blicas que ya se informan con la ayuda de la IA. ¡°Un asunto m¨¢s mundano y m¨¢s a mano¡±, dice, a?adiendo que en Suecia se acaba de publicar una ley que abre el camino para que se usen a¨²n m¨¢s en diversos procesos burocr¨¢ticos. ¡°El problema no es que las m¨¢quinas tomen malas decisiones, sino que estos sistemas que ya aprenden solos lo hacen con mecanismos que no son transparentes ni siquiera para quien los programa¡±, dice el experto. Por tanto, aunque las maquinas tomen decisiones p¨²blicas eficientes, ?deber¨ªamos dejar que las tomasen? ¡°La democracia exige que las decisiones sean justificadas ante el pueblo. La gente tiene derecho a saber por qu¨¦ se le ha negado un permiso o concedido una subvenci¨®n¡±, dice el polit¨®logo. ¡°Las leyes surgen de alguien en una posici¨®n de autoridad que puede explicar el razonamiento que las sustentan¡±. Para explicarlo recurre al ejemplo de una calculadora: te f¨ªas del resultado, pero la maquina no tiene autoridad sobre ti. Beckman acaba con otro dilema: ¡°Los beneficios de la IA burocr¨¢tica ser¨ªan mayores en las democracias m¨¢s vulnerables, en pa¨ªses donde la corrupci¨®n o la ineficiencia lastran muchas decisiones p¨²blicas; sin embargo, es tambi¨¦n en esos pa¨ªses donde puede haber m¨¢s prop¨®sitos espurios para introducirla¡±.
Los investigadores sociales coinciden en que la IA es revolucionaria, pero una mera herramienta, y en que, aunque la usamos, todav¨ªa no ha cambiado de manera radical nuestras vidas. Parte de la investigaci¨®n del economista Strimling es predecir qu¨¦ aplicaciones triunfar¨¢n y cu¨¢les se quedar¨¢n en el camino. Lo llama ¡°pre-¨¦tica¡±: ¡°Si sabemos qu¨¦ aplicaciones se extender¨¢n a m¨¢s velocidad, sabremos qu¨¦ preguntas ¨¦ticas debemos responder con m¨¢s urgencia¡±. Su conclusi¨®n es que no importa tanto la usabilidad o las bondades de una aplicaci¨®n para su ¨¦xito como el modo en que se ¡°propaga¡±. Y la manera m¨¢s eficaz es la ¡°infusi¨®n¡±: cuando una innovaci¨®n se cuela en una herramienta que ya usa todo el mundo. ¡°Un d¨ªa, Netflix, Google o YouTube introducen IA o aprendizaje profundo en sus sistemas de recomendaci¨®n y de forma instant¨¢nea se mete en los ordenadores de todo el planeta sin que los usuarios se den mucha cuenta¡±, dice. Un ejemplo reciente: ¡°Sale ChatGpt, los m¨¢s tecn¨®filos empiezan a usarlo, puede que el p¨²blico general trastee un rato con la app, pero el salto se da cuando Microsoft lo adquiere y se introduce en sus motores de b¨²squeda¡±. ¡°?D¨®nde queda la libertad de elecci¨®n del usuario?¡±, se pregunta Strimling, ¡°y, m¨¢s all¨¢, ?d¨®nde queda la representaci¨®n de la diversidad cultural cuando un grupo muy reducido de personas de un entorno muy concreto ¡ªmayormente desarrolladores de Silicon Valley¡ª toma decisiones sin consultarnos sobre lo que todos usaremos cotidianamente el d¨ªa de ma?ana?¡±.
El fil¨®sofo Jebari insiste en que ¡°no es solo una cuesti¨®n tecnol¨®gica, sino tambi¨¦n pol¨ªtica¡±, sobre todo ante una de las preguntas que m¨¢s preocupan: ?c¨®mo afectar¨¢ al trabajo? ?Se usar¨¢ para liberarnos de lo m¨¢s tedioso y mejorar¨¢ nuestra calidad de vida, o servir¨¢ para explotarnos a¨²n m¨¢s? De nuevo, depende. ¡°En muchas empresas, al aumentar la productividad, la herramienta ya ayuda a quitar cargas y conciliar mejor; en otras ocurre lo contrario: el reto no es tecnol¨®gico, sino regulador, sindical, pol¨ªtico¡±, concluye el fil¨®sofo, mencionando un an¨¢lisis que realiz¨® con un compa?ero de los almacenes m¨¢s robotizados de Amazon: eran m¨¢s productivos, pero tambi¨¦n ten¨ªan m¨¢s accidentes y m¨¢s estr¨¦s e insatisfacci¨®n laboral, ya que los trabajadores han tenido que adaptarse al ritmo fren¨¦tico de las m¨¢quinas.
En una sala di¨¢fana del Instituto para los Estudios del Futuro, el core¨®grafo Robin Jonsson conecta a una bailarina a un entorno de realidad virtual donde ella marca el paso entre dos mundos. Es una muestra de uno de sus proyectos de danza y tecnolog¨ªa, Get Real, en el que bailarines y p¨²blico comparten una on¨ªrica pista digital interactuando a trav¨¦s de la m¨¢quina. Tambi¨¦n trabaja con un robot danzante con el que admite que est¨¢ ¡°bastante frustrado¡±; los bailarines humanos son m¨¢s obedientes y le resulta m¨¢s f¨¢cil conseguir de ellos lo que busca que explic¨¢rselo al robot en complejos prompts (¨®rdenes) que no siempre entiende. Cualquier ilustrador profesional que haya trasteado con herramientas de IA gr¨¢fica sabe a lo que se refiere. Jonsson disfruta explorando los l¨ªmites de su arte y creando situaciones que ¡°expanden una experiencia que est¨¢ ¨ªntimamente ligada a la presencia, lo f¨ªsico y la reacci¨®n del otro¡±. Comparada con las artes pl¨¢sticas o la m¨²sica, donde la tecnolog¨ªa lleva a?os siendo parte del proceso, la danza, dice, est¨¢ en pa?ales.
Lo que lleva a la ¨²ltima pregunta: ?podr¨¢ la IA sustituir a los creadores? ¡°No lo s¨¦, yo estoy deseando usarla a mi favor, pero no lo creo; sobre todo, las artes esc¨¦nicas se pueden automatizar solo hasta cierto punto, porque el cuerpo es tan importante; pero incluso pensando en IA con forma de androides realistas, creo que seguir¨¢n haciendo falta comisarios humanos. Lo que s¨ª cambiar¨¢ es c¨®mo trabajan los artistas¡±. Como core¨®grafo, cree que la riqueza vendr¨¢ de la fusi¨®n entre la IA y los humanos, cada cual aportando sus cualidades. ¡°Mi talento principal es facilitar la socializaci¨®n, sacar lo mejor de los bailarines, los m¨²sicos, los t¨¦cnicos¡, y no veo a una m¨¢quina haciendo eso¡±, dice. Aunque admite que, incluso dentro del arte, quiz¨¢s la expresi¨®n que nos es m¨¢s propia como especie, la danza es ¡°la ¨²ltima trinchera humana¡±.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.