Geoffrey Hinton: ¡°Si hay alguna forma de controlar la inteligencia artificial, debemos descubrirla antes de que sea tarde¡±
El cient¨ªfico brit¨¢nico explica a EL PA?S los motivos que le han llevado a abandonar Google y por qu¨¦ el mundo debe temer esta tecnolog¨ªa
Geoffrey Hinton anunci¨® el lunes que ha renunciado a su puesto como vicepresidente de ingenier¨ªa de Google. Quiere dedicarse a alertar sobre el reverso tenebroso de la inteligencia artificial (IA), seg¨²n dijo en una entrevista concedida a The New York Times. La suya no es una baja cualquiera: nacido en Wimbledon hace 75 a?os, este brit¨¢nico asentado en Canad¨¢ es una leyenda en la disciplina. Su trabajo ha sido decisivo para alumbrar algun...
Reg¨ªstrate gratis para seguir leyendo
Si tienes cuenta en EL PA?S, puedes utilizarla para identificarte
Geoffrey Hinton anunci¨® el lunes que ha renunciado a su puesto como vicepresidente de ingenier¨ªa de Google. Quiere dedicarse a alertar sobre el reverso tenebroso de la inteligencia artificial (IA), seg¨²n dijo en una entrevista concedida a The New York Times. La suya no es una baja cualquiera: nacido en Wimbledon hace 75 a?os, este brit¨¢nico asentado en Canad¨¢ es una leyenda en la disciplina. Su trabajo ha sido decisivo para alumbrar algunas t¨¦cnicas que han hecho posible ChatGPT, los traductores autom¨¢ticos o los sistemas de visi¨®n de los veh¨ªculos aut¨®nomos. Hinton, que fue galardonado en 2017 con el premio Fronteras del Conocimiento que concede la Fundaci¨®n BBVA, cree ahora que la tecnolog¨ªa que tanto ha ayudado a desarrollar puede llevarnos al fin de la civilizaci¨®n en cuesti¨®n de a?os.
La obsesi¨®n de este cient¨ªfico siempre fue estudiar c¨®mo funciona el cerebro para tratar de replicar esos mecanismos en los ordenadores. En 1972 acu?¨® el concepto de red neuronal. La idea de fondo es aplicar matem¨¢ticas al an¨¢lisis de datos para que el sistema sea capaz de desarrollar habilidades. Su propuesta no convenci¨® en la ¨¦poca; hoy, las redes neuronales son la punta de lanza de la investigaci¨®n en IA. El gran momento de Hinton lleg¨® en 2012, cuando demostr¨® el verdadero potencial de su l¨ªnea de investigaci¨®n con una red neuronal que pod¨ªa analizar miles de fotograf¨ªas y aprender por s¨ª sola a distinguir ciertos objetos, como flores, coches o perros. Tambi¨¦n entren¨® un sistema para que fuera capaz de predecir las siguientes letras de una frase inacabada, un antecesor de los actuales grandes modelos ling¨¹¨ªsticos como el de ChatGPT.
Su trabajo le vali¨® el Premio Turing, considerado el Nobel de la inform¨¢tica, que recibi¨® en 2018 junto a otros investigadores como Yann LeCun, exalumno suyo, o Yoshua Bengio. Tambi¨¦n tiene en sus vitrinas el Premio Princesa de Asturias de Investigaci¨®n Cient¨ªfica. Hinton atiende a EL PA?S por videoconferencia desde su casa de Londres, adonde se ha trasladado tras dejar Google.
Pregunta. ?Cu¨¢les son los peligros de la IA a los que nos enfrentamos?
Respuesta. Hay muchos. La generaci¨®n de noticias falsas ya est¨¢ causando grandes divisiones en la sociedad. La eliminaci¨®n de ciertos tipos de trabajo tendr¨¢ un impacto en el empleo. Aumentar¨¢ la disparidad de riqueza entre los ricos y los pobres. Esos son algunos de los peligros inminentes, aunque yo no me centro en esos, sino en otro de car¨¢cter existencial. Hace poco me di cuenta de que el tipo de inteligencia digital que estamos desarrollando podr¨ªa ser una forma de inteligencia mejor que la de los cerebros biol¨®gicos. Siempre pens¨¦ que la IA o el aprendizaje profundo intentaban imitar el cerebro, aunque no pod¨ªan igualarlo: el objetivo era ir mejorando para que las m¨¢quinas se parecieran m¨¢s y m¨¢s a nosotros. He cambiado de postura en los ¨²ltimos meses. Creo que podemos desarrollar algo que es mucho m¨¢s eficiente que el cerebro porque es digital.
P. ?Por qu¨¦ lo cree?
R. El argumento es el siguiente. Con un sistema digital, podr¨ªas tener much¨ªsimas copias de exactamente el mismo modelo del mundo. Estas copias pueden funcionar en distintos hardwares. De este modo, diferentes copias podr¨ªan analizar datos diferentes. Y todas estas copias pueden saber al instante lo que las dem¨¢s han aprendido. Lo hacen compartiendo sus par¨¢metros. No podemos hacer eso con el cerebro. Nuestras mentes han aprendido a utilizar todas sus propiedades de forma individual. Si te diera un mapa detallado de las conexiones neuronales de mi cerebro, no te servir¨ªa de nada. Pero en los sistemas digitales, el modelo es id¨¦ntico. Todos usan el mismo conjunto de conexiones. As¨ª, cuando uno aprende cualquier cosa, puede comunic¨¢rselo a los dem¨¢s. Y es por eso que ChatGPT puede saber miles de veces m¨¢s que cualquier persona: porque puede ver miles de veces m¨¢s datos que nadie. Eso es lo que me asusta. Tal vez esta forma de inteligencia sea mejor que la nuestra.
Por lo que sabemos hasta ahora sobre el funcionamiento del cerebro humano, probablemente nuestro proceso de aprendizaje es menos eficiente que el de los ordenadores
P. Usted lleva d¨¦cadas trabajando en esta disciplina. ?C¨®mo ha llegado ahora a esta conclusi¨®n?
R. Ha sido al tratar de averiguar c¨®mo un cerebro podr¨ªa implementar los mismos procedimientos de aprendizaje que se utilizan en inteligencias digitales como las que est¨¢n detr¨¢s de ChatGPT-4. Por lo que sabemos hasta ahora sobre el funcionamiento del cerebro humano, probablemente nuestro proceso de aprendizaje es menos eficiente que el de los ordenadores.
P. ?Puede la IA ser realmente inteligente si no entiende lo que significan las palabras o sin tener intuici¨®n?
R. El aprendizaje profundo, si lo comparas con la IA simb¨®lica [la corriente dominante en la disciplina hasta la irrupci¨®n de las redes neuronales, que trataba de que la m¨¢quina aprendiese palabras y n¨²meros], es un modelo de intuici¨®n. Si tomas la l¨®gica simb¨®lica como referencia, si crees que as¨ª es como funciona el razonamiento, no puedes responder a la pregunta que te voy a hacer. Pero si tienes un modelo inform¨¢tico de intuici¨®n, la respuesta es obvia. As¨ª que esta es la pregunta: sabes que hay gatos machos y hembras, y sabes que hay perros machos y hembras. Pero supongamos que te digo que tienes que elegir entre dos posibilidades, ambas rid¨ªculas: todos los gatos son machos y los perros son hembras, o todos los gatos son hembras y todos los perros son machos. En nuestra cultura, tenemos bastante claro que tiene m¨¢s sentido que los gatos sean hembras, porque son m¨¢s peque?os, m¨¢s listos y les rodean una serie de estereotipos, y que los perros sean machos, porque son m¨¢s grandes, m¨¢s est¨²pidos, m¨¢s ruidosos, etc¨¦tera. Repito, no tiene ning¨²n sentido, pero forzados a escoger, creo que la mayor¨ªa dir¨ªa lo mismo. ?Por qu¨¦? En nuestra mente representamos al gato y al perro, al hombre y a la mujer, con grandes patrones de actividad neuronal bas¨¢ndonos en lo que hemos aprendido. Y asociamos entre s¨ª las representaciones que m¨¢s se parecen. Ese es un razonamiento intuitivo, no l¨®gico. As¨ª es como funciona el aprendizaje profundo.
P. Usted sostiene que hasta ahora pensaba que la IA llegar¨ªa a superar a la inteligencia humana en unos 30 o 50 a?os. ?Cu¨¢nto cree que queda ahora?
R. De cinco a 20 a?os.
P. Eso est¨¢ a la vuelta de la esquina.
R. No conf¨ªo mucho en mi pron¨®stico porque creo que me equivoqu¨¦ en el primero, pero est¨¢ claro que todo se ha acelerado.
P. ?Cree que la IA llegar¨¢ a tener su propio prop¨®sito u objetivos?
R. Esa es una cuesti¨®n clave, quiz¨¢s el mayor peligro que rodea a esta tecnolog¨ªa. Nuestros cerebros son el fruto de la evoluci¨®n y tienen una serie de metas integradas, como no lastimar el cuerpo, de ah¨ª la noci¨®n del da?o; comer lo suficiente, de ah¨ª el hambre; y hacer tantas copias de nosotros mismos como sea posible, de ah¨ª el deseo sexual. Las inteligencias sint¨¦ticas, en cambio, no han evolucionado: las hemos construido. Por lo tanto, no necesariamente vienen con objetivos innatos. As¨ª que la gran pregunta es, ?podemos asegurarnos de que tengan metas que nos beneficien a nosotros? Este es el llamado problema del alineamiento. Y tenemos varias razones para preocuparnos mucho. La primera es que siempre habr¨¢ quienes quieran crear robots soldados. ?O cree que Putin no los desarrollar¨ªa si pudiera? Eso lo puedes conseguir de forma m¨¢s eficiente si le das a la m¨¢quina la capacidad de generar su propio conjunto de objetivos. En ese caso, si la m¨¢quina es inteligente, no tardar¨¢ en darse cuenta de que consigue mejor sus objetivos si se vuelve m¨¢s poderosa.
Deber¨ªamos poner tanto esfuerzo en desarrollar esta tecnolog¨ªa como en asegurarnos de que sea segura
P. ?Qu¨¦ debemos hacer ahora?
R. Hay que llamar la atenci¨®n de la gente sobre este problema existencial que supone la IA. Ojal¨¢ tuviera una soluci¨®n, como en el caso de la emergencia clim¨¢tica: hay que dejar de quemar carbono, aunque haya muchos intereses que lo impidan. No conozco ning¨²n problema equivalente al de la IA. As¨ª que lo mejor que se me ocurre en este momento es que deber¨ªamos poner tanto esfuerzo en desarrollar esta tecnolog¨ªa como en asegurarnos de que sea segura. Y eso no est¨¢ sucediendo en la actualidad. ?C¨®mo se logra eso en un sistema capitalista? Eso no lo s¨¦.
P. ?Cree que parte del problema reside en el hecho de que el desarrollo de la IA lo est¨¢n llevando a cabo empresas privadas?
R. As¨ª ha sido durante los ¨²ltimos a?os. Google desarroll¨® internamente chatbots como LaMDA, que eran muy buenos, y deliberadamente decidi¨® no abrirlos al p¨²blico porque estaban preocupados por sus consecuencias. Y as¨ª fue mientras Google lideraba esta la tecnolog¨ªa. Cuando Microsoft decidi¨® poner un chatbot inteligente en su buscador Bing, Google tuvo que responder porque operan un sistema competitivo. Google se comport¨® de forma responsable, y no quiero que la gente piense que me fui para criticar a la compa?¨ªa. Dej¨¦ Google para poder advertir sobre los peligros sin tener que pensar en el impacto que pueda causar en su negocio.
P. ?Ha hablado de su decisi¨®n con otros colegas? ?Tienen las mismas preocupaciones que usted?
R. Hemos entrado en un territorio completamente desconocido. Somos capaces de construir m¨¢quinas m¨¢s fuertes que nosotros, pero aun as¨ª tenemos el control. ?Qu¨¦ pasa si desarrollamos m¨¢quinas m¨¢s inteligentes que nosotros? No tenemos experiencia en tratar estas cosas. Hay gente a la que respeto, como mi colega Yann LeCun, que cree que lo que digo no tiene sentido. Sospecho que realmente tenemos que pensar mucho en esto. Y no basta con decir que no vamos a preocuparnos. Muchas de las personas m¨¢s inteligentes que conozco est¨¢n seriamente preocupadas. Es lo que me ha convencido a dar un paso adelante y usar mi reputaci¨®n para que la gente se d¨¦ cuenta de que se trata de un problema muy grave.
No sirve de nada esperar a que la IA sea m¨¢s lista que nosotros, debemos controlarla a medida que se desarrolla
P. Usted no firm¨® la carta suscrita por m¨¢s de un millar de expertos en IA que solicitaba una moratoria de seis meses en la investigaci¨®n. ?Por qu¨¦?
R. Creo que ese enfoque es completamente ingenuo. No hay manera de que eso suceda. Aun salvando la competencia entre las grandes empresas, est¨¢ la de los pa¨ªses. Si EE UU decidiera dejar de desarrollar IA, ?realmente cree que China se detendr¨ªa? La idea de detener la investigaci¨®n llama la atenci¨®n de la gente sobre el problema, pero no va a suceder. Con las armas nucleares, dado que la gente se dio cuenta de que todos perder¨ªamos si hab¨ªa una guerra nuclear, fue posible conseguir tratados. Con la IA ser¨¢ mucho m¨¢s complicado porque es muy dif¨ªcil comprobar si la gente est¨¢ trabajando en ello.
P. ?Qu¨¦ propone, entonces?
R. Lo mejor que puedo recomendar es que muchas personas muy inteligentes traten de averiguar c¨®mo contener los peligros de estas cosas. La IA es una tecnolog¨ªa fant¨¢stica, est¨¢ provocando grandes avances en la medicina, en el desarrollo de nuevos materiales, en la previsi¨®n de terremotos o inundaciones¡ Necesitamos mucho trabajo para entender c¨®mo contener la IA. No sirve de nada esperar a que la IA sea m¨¢s lista que nosotros, debemos controlarla a medida que se desarrolla. Tambi¨¦n tenemos que comprender c¨®mo contenerla, c¨®mo evitar sus malas consecuencias. Por ejemplo, creo que todos los gobiernos deber¨ªan insistir en que todas las im¨¢genes falsas lleven un distintivo.
P. ?Es optimista sobre el futuro que nos aguarda?
R. Tiendo a ser una persona bastante optimista. Hay posibilidades de que no tengamos forma de evitar un mal final. Pero est¨¢ claro que tambi¨¦n tenemos la oportunidad de prepararnos para este reto. Necesitamos mucha gente creativa e inteligente. Si hay alguna forma de mantener la IA bajo control, necesitamos descubrirla antes de que sea demasiado inteligente.
P. ?Conf¨ªa en que los gobiernos encuentren la forma de regular esta tecnolog¨ªa?
R. En Estados Unidos, el sistema pol¨ªtico es incapaz de tomar una decisi¨®n tan simple como no dar fusiles de asalto a los adolescentes. Eso no aporta mucha confianza sobre c¨®mo van a manejar un problema mucho m¨¢s complicado como este.
P. El verano pasado, el ingeniero de Google Blake Lemoine se hizo famoso en todo el mundo al decir que el chatbot en el que trabajaba, LaMDA, hab¨ªa cobrado conciencia. ?Fue ese caso premonitorio de lo que se nos ven¨ªa encima?
R. Creo que lo que pas¨® encierra dos debates distintos. Primero, ?se volver¨¢n las m¨¢quinas m¨¢s inteligentes que nosotros para poder tomar el mando? Y segundo, ?son conscientes o sensibles, o lo que sea que quiera decir eso? El debate m¨¢s importante es el primero; en el segundo intervienen las creencias personales, y a m¨ª eso no me interesa. En cualquier caso, me sorprende que haya much¨ªsimas personas que est¨¢n muy seguras de que las m¨¢quinas no son conscientes, pero que al mismo tiempo no sepan definir qu¨¦ significa que algo o alguien sea consciente. Me parece una posici¨®n est¨²pida.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.