Las mentes humanas detr¨¢s de las mentes artificiales
El premio Princesa de Asturias de Investigaci¨®n Cient¨ªfica de 2022 reconoce contribuciones fundamentales al aprendizaje profundo, la principal herramienta que hace que las m¨¢quinas piensen
En el ¨²ltimo siglo, la comunidad cient¨ªfica ha conjeturado sobre la posibilidad de construir m¨¢quinas capaces de desempe?ar tareas inteligentes, hasta ahora, reservadas a los seres humanos. Aunque, de momento, no estamos cerca de alcanzar algo parecido a la llamada inteligencia artificial general, el uso de las conocidas como inteligencias artificiales d¨¦biles o estrechas (NAI, por sus siglas en ingl¨¦s) s¨ª es muy habitual en redes sociales, sistemas de reconocimiento facial y an¨¢lisis de lenguaje natural, por ejemplo. El premio Princesa de Asturias de Investigaci¨®n Cient¨ªfica y T¨¦cnica reconoce este a?o a algunos de los art¨ªfices de la formulaci¨®n y desarrollo de los algoritmos que hacen posible este tipo de inteligencia.
Las NAI son algoritmos especializados en ciertas tareas en las que pueden alcanzan rendimientos muy superiores a los de los seres humanos. No obstante, son incapaces de desempe?ar labores distintas de aquellas para las que fueron ideados y entrenados. Actualmente, las NAI desarrollan tareas que eran intratables para las m¨¢quinas hasta hace apenas veinte a?os. Entre ellas est¨¢n tanto el reconocimiento de im¨¢genes como el procesamiento del lenguaje natural.
Este hito fue posible gracias a la aparici¨®n de las redes neuronales. Formuladas originalmente en los a?os 1940, no fue hasta la d¨¦cada de 1980 cuando comenzaron a mostrar su gran potencial. Hoy en d¨ªa, el t¨¦rmino redes neuronales designa una familia de algoritmos con una alta capacidad de adaptaci¨®n y rendimiento, basada en su formulaci¨®n matem¨¢tica y tambi¨¦n en el incre¨ªble aumento de la capacidad computacional experimentado desde su formulaci¨®n. Estos algoritmos nacieron con inspiraci¨®n biol¨®gica: su pretensi¨®n era emular el cerebro humano. Su estructura m¨¢s fundamental la conforman neuronas artificiales que juegan un papel an¨¢logo a las neuronas en los sistemas nerviosos reales. Estas unidades sencillas se disponen en paralelo, formando capas de procesamiento. El aprendizaje en redes neuronales consiste en construir un sistema con varias de estas capas apiladas y entrenar cada neurona individualmente.
El n¨²mero de capas del sistema define la profundidad de la red y, solo cuando contamos con dos o m¨¢s de estas, se usa el t¨¦rmino aprendizaje profundo o deep learning. Este tipo de redes profundas pueden ser empleadas para realizar, a¨²n con m¨¢s precisi¨®n que con las redes de una capa, diversos tipos de tareas y fuentes de datos: desde an¨¢lisis y comprensi¨®n de textos, a encontrar elementos en una imagen y describir la escena en una fotograf¨ªa, e incluso sugerir nueva m¨²sica basada en nuestras preferencias.
El trabajo de Geoffrey Hinton, Yann Lecun, Yoshua Bengio, considerados popularmente como los padres del deep learning, as¨ª como Demis Hassabis ¡ªCEO y uno de los fundadores de DeepMind, compa?¨ªa art¨ªfice de algunos de los hitos m¨¢s importantes en inteligencia artificial¡ª, ha sido crucial en el desarrollo de las capacidades de las redes neuronales profundas y en nuestro entendimiento actual sobre ellas.
Hinton, Lecun y Bengio, emplearon la idea de retropropagaci¨®n (backpropagation) para expandir la formulaci¨®n matem¨¢tica original de las redes neuronales y permitir el entrenamiento de redes con m¨¢s de una capa. Hinton introdujo este concepto en 1986, permitiendo por vez primera que redes neuronales profundas realizasen adecuadamente una tarea a partir de un conjunto de datos. Estas t¨¦cnicas hacen que las redes se corrijan a s¨ª mismas, haciendo que grupos de neuronas aprendan a reconocer las caracter¨ªsticas relevantes de los datos de entrada, combinando un dise?o a medida para cada tarea con una serie de principios comunes para el entrenamiento. Esto les permite explotar caracter¨ªsticas intr¨ªnsecas de los datos y realizar tareas concretas con alta precisi¨®n. Adem¨¢s, pueden ser confeccionadas para que presten atenci¨®n a la disposici¨®n espacial de los datos ¡ªcomo los p¨ªxeles en una imagen¡ª, as¨ª como modelos que tienen en cuenta la sucesi¨®n temporal de los mismos ¡ªcomo el sentido que otorga el orden de las palabras en una frase¡ª.
Por su parte, Demis Hassabis es una de las figuras modernas m¨¢s influyentes en la investigaci¨®n en inteligencia artificial. Entre otros hitos, su empresa, DeepMind, es art¨ªfice de AlphaGo ¡ªuna inteligencia artificial capaz de batir a los campeones humanos en Go¡ª, de AlphaFold ¡ªun algoritmo que en su ¨²ltima versi¨®n permite predecir la estructura tridimensional de una prote¨ªna a partir de su secuencia de amino¨¢cidos¡ª, o Gato ¡ªun agente generalista que, gracias a la potencia de su formulaci¨®n, es capaz de realizar m¨¢s de 600 tareas diferentes, incluyendo charlar con usuarios, jugar a juegos, describir im¨¢genes y manipular brazos rob¨®ticos¡ª. Este ¨²ltimo, a¨²n lejos de ser un agente verdaderamente inteligente, supone un avance prometedor en la direcci¨®n del santo grial de la inteligencia artificial general.
Aunque es dif¨ªcil predecir si finalmente DeepMind, o cualquier otra empresa o centro de investigaci¨®n, conseguir¨¢ crear inteligencias artificiales generales, el impacto de todas estas t¨¦cnicas ha sido enorme en los ¨²ltimos 20 a?os y, sin duda, ser¨¢ a¨²n mayor en el futuro inmediato. En concreto, las contribuciones de estos cuatro cient¨ªficos al campo de la inteligencia artificial han sido y ser¨¢n cruciales en la configuraci¨®n de las sociedades industriales modernas y tambi¨¦n en el enfrentamiento de algunos de los grandes problemas del siglo XXI, como el cambio clim¨¢tico.
Sim¨®n Rodr¨ªguez es investigador postdoctoral en el ICMAT.
?gata Tim¨®n G Longoria es coordinadora de la Unidad de Cultura Matem¨¢tica del ICMAT.
Caf¨¦ y Teoremas es una secci¨®n dedicada a las matem¨¢ticas y al entorno en el que se crean, coordinado por el Instituto de Ciencias Matem¨¢ticas (ICMAT), en la que los investigadores y miembros del centro describen los ¨²ltimos avances de esta disciplina, comparten puntos de encuentro entre las matem¨¢ticas y otras expresiones sociales y culturales y recuerdan a quienes marcaron su desarrollo y supieron transformar caf¨¦ en teoremas. El nombre evoca la definici¨®n del matem¨¢tico h¨²ngaro Alfred R¨¦nyi: ¡°Un matem¨¢tico es una m¨¢quina que transforma caf¨¦ en teoremas¡±.
Edici¨®n y coordinaci¨®n: ?gata A. Tim¨®n G Longoria (ICMAT).
Puedes seguir a MATERIA en Facebook, Twitter e Instagram, o apuntarte aqu¨ª para recibir nuestra newsletter semanal.