Emily Bender: ¡°Los chatbots no deber¨ªan hablar en primera persona. Es un problema que parezcan humanos¡±
Esta profesora de ling¨¹¨ªstica computacional advierte sobre los peligros de exagerar la ¡°magia¡± de unos modelos de inteligencia artificial con muchas limitaciones
La profesora Emily M. Bender tiene una misi¨®n: quiere que sepamos que la aparente maravilla de ChatGPT es m¨¢s bien un loro. No un loro cualquiera, sino un ¡°loro estoc¨¢stico¡±. ¡°Estoc¨¢stico¡± significa que escoge las combinaciones de palabras seg¨²n un c¨¢lculo de probabilidades, pero no entiende nada de lo que dice. Es dif¨ªcil conversar con ChatGPT o con Bing y ser consciente de que es un loro y solo un loro. Pero para Bender de esa conciencia dependen muchas cosas malas: ¡°Estamos en un momento fr¨¢gil¡±, dice. Y advierte: ¡°Estamos interactuando con una tecnolog¨ªa nueva y el mundo entero necesita equilibrar r¨¢pido su alfabetizaci¨®n para saber c¨®mo tratar bien con ella¡±. Su mensaje, en resumen, es: por favor, es una m¨¢quina que hace muy bien una cosa, pero nada m¨¢s.
Bender, ling¨¹ista computacional de la Universidad de Washington, intu¨ªa que esto pod¨ªa suceder desde 2021, cuando public¨® un art¨ªculo acad¨¦mico ahora c¨¦lebre sobre ¡°los peligros de los loros estoc¨¢sticos¡±: ¡°No dijimos que esto iba a pasar. Dijimos que esto podr¨ªa pasar y que deber¨ªamos tratar de evitarlo. No era una predicci¨®n. Era una advertencia. All¨ª solo hablamos un poco de lo peligroso que es hacer algo que parezca humano. Es mejor no imitar el comportamiento humano porque eso puede llevar a problemas¡±, dice Bender, de 49 a?os, por videoconferencia a EL PA?S. ¡°Cuanta m¨¢s gente sea consciente, m¨¢s f¨¢cil ser¨¢ ver los grandes modelos de lenguaje como simples m¨¢quinas de s¨ªntesis de texto y no como algo que genera pensamientos, ideas o sentimientos. Creo que [sus creadores] quieren creer que es otra cosa¡±, a?ade.
Esa falsa humanidad tiene varios problemas: ¡°Nos provocar¨¢ confianza. Y no asume responsabilidad. Tiene tendencia a inventarse cosas. Si muestra un texto que es cierto, es por casualidad¡±, asegura. ¡°Nuestras sociedades son un sistema de relaci¨®n y confianza. Si comenzamos a perder esa confianza en algo que no tiene responsabilidad, hay riesgos. Como individuos que interactuamos con esto, debemos tener cuidado con lo que hacemos con nuestra confianza. Las personas que la construyen deben dejar de hacerla parecer humana. No deber¨ªa estar hablando en primera persona¡±, a?ade.
Menos Terminator en potencia
La labor por hacerlos m¨¢s humanos probablemente no sea gratuita. Sin ella, el bombo provocado por ChatGPT hubiera sido m¨¢s sereno: no hubiera dado esa sensaci¨®n de Terminator en potencia, de amigo cuidadoso, de sabio visionario. ¡°Quieren crear algo que parezca m¨¢s m¨¢gico de lo que es. Nos parece m¨¢gico que una m¨¢quina pueda ser tan humana, pero en realidad es la m¨¢quina creando la ilusi¨®n de ser humana¡±, dice Bender. ¡°Si alguien est¨¢ en el negocio de vender tecnolog¨ªa, cuanto m¨¢s m¨¢gica parezca, m¨¢s f¨¢cil ser¨¢ venderla¡±, a?ade.
La investigadora Timnit Gebru, coautora con Bender del art¨ªculo de los loros y que fue despedida de Google por ese motivo, se lamentaba en Twitter porque el presidente de Microsoft admit¨ªa en un documental sobre ChatGPT que ¡°no es una persona, es una pantalla¡±.
Si alguien est¨¢ en el negocio de vender tecnolog¨ªa, cuanto m¨¢s m¨¢gica parezca, m¨¢s f¨¢cil ser¨¢ venderla¡±
El bombo sin embargo no se debe solo a una empresa que ha hecho hablar un chatbot como si fuera humano. Hay aplicaciones de IA que crean im¨¢genes y pronto v¨ªdeos y m¨²sica. Es dif¨ªcil no dar bombo a estas novedades, aunque todas se basen en el mismo tipo de reconocimiento de patrones. Bender pide algo d¨ªficil para los medios y el modo en que est¨¢n estructuradas las redes sociales hoy: contexto. ¡°Se pueden hacer cosas nuevas y a¨²n as¨ª no exagerar. Puedes preguntar: ?es esto arte de IA o es solo s¨ªntesis de im¨¢genes? ?Est¨¢s sintetizando im¨¢genes o est¨¢s imaginando que el programa es un artista? Se puede hablar sobre la tecnolog¨ªa de manera que mantenga a las personas en el centro. Para contrarrestar el bombo es cuesti¨®n de hablar sobre lo que realmente se est¨¢ haciendo y qui¨¦n est¨¢ involucrado en su construcci¨®n¡±, asegura.
Hay que tener en cuenta tambi¨¦n que estos modelos se basan en una cantidad inimaginable de datos que no ser¨ªa posible sin llevar d¨¦cadas alimentando internet con miles de millones de textos e im¨¢genes. Eso conlleva problemas obvios, seg¨²n Bender: ¡°Este enfoque de la tecnolog¨ªa del lenguaje se basa en tener datos a escala de Internet. En t¨¦rminos de equidad entre idiomas, por ejemplo, este enfoque no va a escalar a todos los idiomas del mundo. Pero tambi¨¦n es un enfoque fundamentalmente atrapado en el hecho de que tendr¨¢ que lidiar con que esos datos a escala de internet incluyen todo tipo de basura¡±.
Esa basura no solo incluye racismo, nazismo o sexismo. Tambi¨¦n en p¨¢ginas serias est¨¢n sobrerrepresentados los hombres blancos ricos o hay palabras connotadas por titulares muy vistos como ¡°islam¡± o el modo en que a veces se habla en Occidente de los pa¨ªses de donde procede la inmigraci¨®n. Todo eso poso est¨¢ en el coraz¨®n de estos modelos: reeducarlos es una tarea extraordinaria y probablemente inacabable.
Los humanos no somos eso
El loro no solo ha hecho c¨¦lebre a Bender. Sam Altman, fundador de OpenAI, empresa creadora de ChatGPT, ha tuiteado un par de veces que somos loros estoc¨¢sticos. Quiz¨¢ los humanos tambi¨¦n reproducimos lo que o¨ªmos tras un c¨¢lculo probabil¨ªstico. Esa manera de disminuir las capacidades humanas permite inflar la presunta inteligencia de las m¨¢quinas, los siguientes pasos de OpenAI y otras empresas de un sector que vive casi en una burbuja. En el fondo permitir¨¢ recaudar a¨²n m¨¢s dinero.
¡°El trabajo sobre la inteligencia artificial va ligado a considerar la inteligencia humana como algo simple que se puede cuantificar y que la gente puede ser clasificada seg¨²n su inteligencia¡±, dice Bender. Esta clasificaci¨®n permite establecer hitos futuros para la IA: ¡°Est¨¢ la ¡®inteligencia artificial general¡¯, que no tiene una gran definici¨®n, pero es algo as¨ª como que puede aprender de manera flexible. Y luego a¨²n est¨¢ la ¡®superinteligencia artificial¡¯, que la o¨ª el otro d¨ªa, y que debe de ser a¨²n m¨¢s inteligente. Pero es todo imaginario¡±. El salto entre las IA que vemos hoy y una m¨¢quina que realmente piense y sienta sigue siendo extraordinario.
El 24 de febrero Altman public¨® un post titulado ¡°Planeando para la AGI [Inteligencia Artificial General] y m¨¢s all¨¢¡±. Trata sobre ¡°garantizar que la inteligencia artificial general (sistemas de IA que generalmente son m¨¢s inteligentes que los humanos) beneficie a toda la humanidad¡±. Bender fue a Twitter a preguntarse, entre otras cosas, qui¨¦n es esta gente para decidir qu¨¦ es lo que beneficia a toda la humanidad.
From the get-go this is just gross. They think they are really in the business of developing/shaping "AGI". And they think they are positioned to decide what "benefits all of humanity". pic.twitter.com/AJxExcxDY3
— @emilymbender@dair-community.social on Mastodon (@emilymbender) February 26, 2023
Esta elevaci¨®n de la categor¨ªa de ChatGPT permite a Altman presentar su post como algo casi real, con potencial. ¡°Sam Altman parece creer realmente que puede construir una entidad inteligente aut¨®noma. Para mantener esa creencia, tiene que coger la tecnolog¨ªa existente y decir s¨ª, se parece lo suficiente a los tipos de agentes inteligentes aut¨®nomos que imagino. Creo que es da?ino. No s¨¦ si creen lo que dicen o si son c¨ªnicos, pero suenan como si lo creyeran¡±, dice Bender.
Si se extiende esta creencia de que las IA hacen m¨¢s de lo que parecen, que son m¨¢s listas, m¨¢s gente tender¨¢ a aceptar que se cuelen en otros ¨¢mbitos de decisi¨®n: ¡°Si creemos que existe una inteligencia artificial real, tambi¨¦n seremos m¨¢s propensos a creer que claro que podemos hacer sistemas autom¨¢ticos de decisi¨®n que est¨¦n menos sesgados que los humanos cuando en realidad no podemos¡±, dice Bender.
¡°Como un vertido de petr¨®leo¡±
Una de las posibilidades m¨¢s comentadas para estos modelos de texto es si reemplazar¨¢n a los buscadores. Microsoft, con Bing, ya lo est¨¢ intentando. Los diversos cambios que han ido aplicando a su modelo desde que sali¨® es prueba de sus dificultades. Bender quiere compararlo con un ¡°vertido de petr¨®leo¡±: ¡°Esa es una met¨¢fora que espero que persista. Uno de los da?os con estas m¨¢quinas de s¨ªntesis de texto configuradas como si pudieran responder a preguntas es que van a colocar no-informaci¨®n en nuestro ecosistema de informaci¨®n de manera que ser¨¢ dif¨ªcil de detectar. Eso se parece a un vertido de petr¨®leo: ser¨¢ dif¨ªcil de limpiar. Cuando las empresas hablan de c¨®mo est¨¢n progresando constantemente y mejorando su precisi¨®n, es como cuando BP o Exxon dicen: ¡®Miren cu¨¢ntas aves salvamos del petr¨®leo que derramamos sobre ellas¡±.
OpenAI quiere hablar sobre el futuro. Pero yo preferir¨ªa hablar de c¨®mo regulamos lo que hemos construido ahora¡±
Mientras hablamos de ese futuro improbable, no prestamos atenci¨®n al presente, dice Bender. ¡°OpenAI quiere hablar sobre c¨®mo nos aseguramos de que la inteligencia artificial general ser¨¢ beneficiosa para toda la humanidad y c¨®mo la regularemos. Pero yo preferir¨ªa hablar de c¨®mo regulamos lo que hemos construido ahora y lo que debemos hacer para que no cause problemas hoy, en lugar de esta distracci¨®n de lo que suceder¨ªa si tuvi¨¦ramos estos agentes aut¨®nomos¡±, cree.
No ha perdido la esperanza en que vaya llegando alg¨²n tipo de regulaci¨®n, en parte por el esfuerzo de computaci¨®n que requieren estos modelos. ¡°Se necesitan muchos recursos para crear una de estas cosas y ejecutarla, lo que da un poco m¨¢s de margen a la regulaci¨®n. Necesitamos una regulaci¨®n en torno a la transparencia. OpenAI no est¨¢ siendo abierta al respecto. Con suerte, eso ayudar¨ªa a las personas a comprender mejor¡±.
La ciencia ficci¨®n no es el ¨²nico futuro
Bender tiene que o¨ªr a menudo que es una mujer enfadada que se queja de la tecnolog¨ªa, a pesar de dirigir un m¨¢ster en ling¨¹¨ªstica computacional: ¡°No me siento herida cuando la gente me lo dice porque s¨¦ que est¨¢n equivocados. Aunque tambi¨¦n muestran este punto de vista de creer que hay un camino predeterminado hacia el que nos llevan la ciencia y la tecnolog¨ªa y es el que hemos aprendido de la ciencia ficci¨®n. Es una forma contraproducente de entender qu¨¦ es la ciencia. La ciencia es un grupo de personas que se dispersan y exploran cosas distintas y luego conversan entre s¨ª, no personas que corren por un camino recto, intentando llegar los primeros al final¡±.
Bender tiene un ¨²ltimo mensaje para quienes creen que ese camino ser¨¢ accesible y sencillo: ¡°Esto que dir¨¦ puede ser sarc¨¢stico y simplista, pero tal vez solo esperan que lleguemos a un punto donde estos modelos se alimenten de tant¨ªsimos datos que en ese momento decida espont¨¢neamente convertirse en consciente¡±. Por ahora, ese es el plan.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.