La inteligencia artificial de Google es capaz de aprender como un beb¨¦
Un art¨ªculo publicado en ¡®Nature Human Behaviour¡¯ prueba que las m¨¢quinas adquieren mejores conocimientos de f¨ªsica intuitiva si replican la forma de aprender de infantes de tres meses
Yoshua Bengio, uno de los padres del aprendizaje autom¨¢tico, o machine learning, suele decir que la inteligencia artificial (IA) es en realidad muy est¨²pida. El reciente premio Princesa de Asturias de Investigaci¨®n Cient¨ªfica se refiere a que estos sistemas pueden hacer c¨¢lculos complej¨ªsimos en milisegundos, pero al mismo tiempo son incapaces de entender cuestiones de sentido com¨²n, como que el agua moja o que si sueltas un objeto se caer¨¢ al suelo. Conseguir que las m¨¢quinas aprendan la llamada f¨ªsica intuitiva, las nociones b¨¢sicas sobre el funcionamiento del mundo que los humanos dominamos desde edades muy tempranas, es uno de los desaf¨ªos pendientes de los especialistas.
Un equipo de investigadores de DeepMind, la empresa de Google centrada en desarrollos de IA, ha tratado de hacerlo de una forma innovadora. Han creado un modelo computacional para ver si un sistema de aprendizaje profundo (o deep learning, una t¨¦cnica de IA avanzada basada en las llamadas redes neuronales) puede adquirir un entendimiento de ciertos principios f¨ªsicos b¨¢sicos a partir del procesamiento de animaciones visuales. Es decir, observando, igual que las personas. Su conclusi¨®n, que se publica hoy en la revista Nature Human Behaviour, es llamativa: es m¨¢s f¨¢cil que la m¨¢quina lo consiga si se le ense?a a aprender como los beb¨¦s, estudiando su entorno.
No est¨¢ claro cu¨¢l es el mecanismo que permite a los seres humanos aprender tan r¨¢pido la f¨ªsica intuitiva. La psicolog¨ªa evolutiva, una de las disciplinas que m¨¢s ha estudiado el fen¨®meno, sostiene que los principios fundamentales de la f¨ªsica se van interiorizando mediante la observaci¨®n de objetos y de sus interacciones. El equipo de DeepMind encabezado por Luis S. Piloto parti¨® de esas teor¨ªas y desarroll¨® un sistema de aprendizaje autom¨¢tico al que bautizaron como Plato y al que se le mostraron v¨ªdeos de pelotas cayendo al suelo y pelotas desapareciendo de la imagen cuando pasan detr¨¢s de otro objeto y reapareciendo luego. Se centraron en explorar si su sistema era capaz de aprender ciertos principios b¨¢sicos, como la solidez (que los objetos no pasan a trav¨¦s de otros) y la continuidad (que no aparecen y desaparecen espont¨¢neamente).
Hay estudios que demuestran que un beb¨¦ de tres meses reacciona con sorpresa cuando observa cualquier situaci¨®n que desaf¨ªe esta l¨®gica. Por ejemplo, si cerramos una moneda en el pu?o y al abrirla no est¨¢ porque la hemos escondido en la manga. O si una pelota pasa por detr¨¢s de una caja y, cuando deber¨ªa reaparecer al otro lado, no lo hace.
Piloto y sus colegas mostraron 28 horas de v¨ªdeos a la herramienta con diversos ejemplos de pelotas en movimiento. ¡°Usamos un sistema para discriminar que ciertos p¨ªxeles pertenecen a una pelota y otros a una caja. El paso siguiente es decir que los p¨ªxeles que pertenecen a la pelota forman un grupo¡±, explica por videoconferencia Piloto. Tras el entrenamiento, la m¨¢quina pudo ser capaz de prever d¨®nde y cu¨¢ndo reaparecer¨ªa aproximadamente el bal¨®n tras pasar detr¨¢s de un caj¨®n.
Los resultados se?alan que las animaciones visuales son suficientes para que el sistema adquiera algunos de esos conocimientos b¨¢sicos, pero no todos los que acumulan los beb¨¦s. Es decir, los modelos computacionales deben incluir de partida una serie de conocimientos de base sobre c¨®mo se comportan los objetos, pero para consolidar esas nociones se necesita observar.
Y, como en el caso del beb¨¦ sorprendido ante un truco de magia facil¨®n, Plato tambi¨¦n expresa su confusi¨®n si el objeto no sigue las normas f¨ªsicas elementales. El modelo fue capaz de extrapolar las expectativas aprendidas sobre el comportamiento de unos objetos a nuevas situaciones y artefactos que no aparec¨ªan en las im¨¢genes que se le mostraron a la herramienta. ¡°En nuestro experimento, la sorpresa es la diferencia entre el n¨²mero de intensidad de color de un p¨ªxel que prev¨¦ el sistema frente al n¨²mero real del color¡±, razona Piloto. Y eso es lo que hac¨ªa la herramienta con bastante acierto: sombrear el espacio donde preve¨ªa que reapareciera el objeto en cuesti¨®n cuando su intuici¨®n le dec¨ªa que eso suceder¨ªa.
El equipo de investigadores de DeepMind niega que trabajen en aplicaciones espec¨ªficas de uso para su sistema. Ellos lo ven m¨¢s bien como un trabajo que puede servir de referencia a otros cient¨ªficos que est¨¦n estudiando el mismo problema. Sin embargo, reconocen que podr¨ªa tener potencial en rob¨®tica y en sistemas de conducci¨®n aut¨®noma.
De la IA a la psicolog¨ªa evolutiva
?Qu¨¦ implicaciones tiene este trabajo para el campo de la IA? ¡°Nosotros no sabemos c¨®mo representan el mundo los sistemas de machine learning (aprendizaje autom¨¢tico). Lo que hemos hecho es decirle a Plato que tiene que entenderlo como una serie de objetos que se relacionan entre s¨ª¡±, puntualiza Peter Battaglia, cient¨ªfico de DeepMind y coautor del art¨ªculo.
Esa es la aproximaci¨®n al tema de la psicolog¨ªa evolutiva. ¡°El trabajo de Piloto y sus colegas est¨¢ ampliando las fronteras de lo que la experiencia del d¨ªa a d¨ªa puede aportar o no en t¨¦rminos de inteligencia¡±, sostienen Susan Hespos y Apoorva Shivaram, investigadoras del departamento de Psicolog¨ªa de la Northwestern University (Evanston, Illinois). ¡°Este es un esfuerzo importante porque eval¨²a qu¨¦ tipos de experiencia perceptual se necesitan para explicar el conocimiento que es evidente en un beb¨¦ de tres meses¡±, dicen las expertas, que forman parte del equipo de cient¨ªficos que ha revisado el trabajo dirigido por Piloto antes de su publicaci¨®n.
Seg¨²n Hespos, otra aportaci¨®n del paper dirigido por Piloto es evidenciar la gran complejidad de un proceso tremendamente sofisticado pero que damos por hecho, como es aprender las normas de funcionamiento b¨¢sicas de los objetos. ¡°El art¨ªculo formaliza algunos de los pasos necesarios para hacer algo tan sencillo como predecir ad¨®nde ir¨¢ una pelota que baja una rampa. Eso no quiere decir que el modelo computacional funcione exactamente como la mente. Su valor radica en el proceso de aprender a definir los pasos, pruebas y m¨¢s pruebas que se necesitan para conseguir algo similar al comportamiento humano¡±, subraya Hespos.
La profesora de la Northwestern University cree que la IA tiene todav¨ªa mucho que aportar a la psicolog¨ªa. Puede servir, por ejemplo, como campo de pruebas para experimentos que hoy son imposibles. ¡°Hay algunas preguntas que siempre me he hecho, como si las expectativas de los beb¨¦s acerca del comportamiento de los objetos ser¨ªa diferente si se criase en un lugar con gravedad cero¡±, describe Hespos. ¡°Quiz¨¢s el modelo de Piloto y su equipo pueda ayudarnos a ver c¨®mo podr¨ªa cambiar el aprendizaje en ese entorno¡±.
Puedes seguir a EL PA?S TECNOLOG?A en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.