Judea Pearl: ¡°Los ordenadores pronto ser¨¢n capaces de explicar el mundo y a ellos mismos¡±
El estadounidense, premio Fundaci¨®n BBVA Fronteras del Conocimiento, cree que en menos de 25 a?os la inteligencia artificial ¡°experimentar¨¢ una revoluci¨®n¡± al entender el entorno
Nadie sabe qu¨¦ razonamiento sigui¨® en 2016 AlphaGo, un programa desarrollado por DeepMind (Google), para derrotar sin paliativos al campe¨®n del mundo de Go, un juego de origen chino considerado mucho m¨¢s complejo que el ajedrez. Ese sistema us¨® redes neuronales, que se apoyan en el deep learning o aprendizaje autom¨¢tico. Se le ense?aron las reglas del juego, en el que el factor intuitivo es clave, y luego ech¨® varias partidas contra s¨ª mismo. Dicen los entendidos que AlphaGo desarroll¨® unas t¨¢cticas nunca antes vistas. Su victoria se interpret¨® como la prueba definitiva de que las m¨¢quinas ya no tienen rival. Aunque no seamos capaces de entender c¨®mo lleg¨® el programa a ese manejo.
Pero este modelo de desarrollo de la inteligencia artificial (IA), en el que la opacidad de los algoritmos es casi total, no es el ¨²nico en la disciplina. Frente a la propuesta del aprendizaje autom¨¢tico hay otra tambi¨¦n muy potente, basada en sistemas de causalidad, que pretende arrojar luz sobre el proceso de toma de decisiones de la m¨¢quina. El padre de esta corriente es el estadounidense Judea Pearl, que la semana pasada fue distinguido con el premio Fundaci¨®n BBVA Fronteras del Conocimiento en la categor¨ªa de Tecnolog¨ªas de la Informaci¨®n y la Comunicaci¨®n. Un galard¨®n m¨¢s para sus pobladas vitrinas, en las que luce desde 2011 el premio Turing (2011), considerado el Nobel de la inform¨¢tica.
Pearl naci¨® en Tel Aviv en 1936, antes de la formaci¨®n del Estado de Israel (entonces Mandato brit¨¢nico de Palestina). En 1969 se incorpor¨® a la Universidad de California en Los ?ngeles (UCLA), donde todav¨ªa ejerce como profesor a sus 85 a?os. Su gran contribuci¨®n a la disciplina es la aplicaci¨®n de las redes bayesianas para reducir la incertidumbre (lograr que la m¨¢quina no se vea abrumada ante la multiplicidad de variables que le impactan). De la mano de la estad¨ªstica, consigui¨® desarrollar modelos de inteligencia artificial que traduc¨ªan las variables en una especie de ¨¢rboles de decisi¨®n en los que solo aparec¨ªan las opciones viables. Este sistema se iba perfeccionando, de manera que el programa no ten¨ªa que empezar a razonar de cero cada vez.
Los m¨¦todos de Pearl se ense?an hoy en todas las facultades de Inform¨¢tica y sus libros ¡°han inspirado avances trascendentales en la comprensi¨®n del razonamiento y el pensamiento¡±, destac¨® el jurado del premio espa?ol. Su ¡°amplio y profundo impacto¡± se percibe en multitud de ¨¢reas y aplicaciones, como ¡°en el desarrollo de ensayos cl¨ªnicos m¨¦dicos no sesgados y eficaces, en la psicolog¨ªa, la rob¨®tica y la biolog¨ªa¡±.
2022 ser¨¢ un a?o agridulce para el cient¨ªfico estadounidense. Por un lado, ha conseguido uno de los galardones mejor remunerados del mundo; por otro, se cumplen 20 a?os del asesinato de su hijo, el periodista Daniel Pearl, que fue secuestrado, torturado y asesinado en Pakist¨¢n por yihadistas. El tr¨¢gico suceso no consigui¨® interrumpir la carrera investigadora de Pearl. El cient¨ªfico atiende por tel¨¦fono a EL PA?S desde su casa de Los ?ngeles.
Pregunta. ?En qu¨¦ momento se encuentra el desarrollo de la inteligencia artificial?
Respuesta. Creo que en poco tiempo, dentro de entre cinco y 25 a?os, veremos una revoluci¨®n. Los ordenadores pronto se comportar¨¢n de forma m¨¢s inteligente que hasta ahora, en parte gracias a los avances en la ciencia de la causa y el efecto. Los ordenadores ser¨¢n capaces de explicar por qu¨¦ tomaron sus decisiones, por qu¨¦ es bueno que t¨² hagas una u otra cosa y qu¨¦ va a pasar si no lo haces. Vamos hacia ordenadores capaces de explicar el mundo y a ellos mismos, y de volver hacia atr¨¢s y modificar su propio software. Y eso va a suceder en los pr¨®ximos a?os. Supongo que ahora me querr¨¢ preguntar si esto es peligroso, si acabar¨¢ por desarrollarse una especie de organismo que controle el mundo. Me preocupa esa posibilidad, pero tambi¨¦n creo que deber¨ªamos ser capaces de controlar la situaci¨®n.
P. ?Cree que la gente pone demasiadas esperanzas en el aprendizaje autom¨¢tico?
R. El deep learning, no lo olvidemos, es una forma muy simple de IA. Est¨¢ en el primer escal¨®n de complejidad, es fundamentalmente estad¨ªstica: solo es capaz de predecir cosas similares a las que ya ha visto anteriormente. Es cierto que se ha confiado en exceso en el deep learning debido a los grandes avances que ha impulsado en visi¨®n computacional, reconocimiento de voz y veh¨ªculos aut¨®nomos, por ejemplo. Eso nos llev¨® a pensar que esta progresi¨®n era imparable, que la inteligencia general estaba a la vuelta de la esquina. Ahora sabemos sus limitaciones. No podemos predecir los resultados de una intervenci¨®n solo mirando pasivamente los datos. Tampoco se puede generar una explicaci¨®n a partir de su contemplaci¨®n.
P. ?Cu¨¢l es entonces la principal limitaci¨®n de la IA?
R. Cruzar la frontera entre la predicci¨®n y la explicaci¨®n de la acci¨®n. Se trata de una diferencia que no se reconoc¨ªa antes. Imagino que habr¨¢ otras grandes limitaciones; yo le puedo hablar de esta porque es con la que estoy familiarizado. Ahora sabemos cu¨¢l es el problema y creo que lo superaremos.
P. ?Deber¨ªa regularse el uso de algoritmos de IA que afecten a las vidas de las personas?
R. Creo que es prematuro legislar antes de entender qu¨¦ significa protegernos de ello, qu¨¦ se puede considerar un fracaso. Los abogados no deber¨ªan traducir sus miedos infundados en una legislaci¨®n. Por supuesto que no queremos que la gente sea discriminada por su color de piel, origen nacional o estatus econ¨®mico. Habr¨¢ que entender qu¨¦ significa esta correlaci¨®n. Ahora tenemos los medios para clasificar los algoritmos en discriminatorios o justos. Deber¨ªa haber alguna regulaci¨®n, pero no antes de entender qu¨¦ es la justicia algor¨ªtmica. Y justicia es una noci¨®n causal.
P. ?Qu¨¦ quiere decir con eso?
R. La definici¨®n de justicia viene de un modelo causal. Porque ya fuera la raza o el sexo lo que aport¨® la apariencia de discriminaci¨®n o inequidad, depende del modelo causal que tengas. Podr¨ªa ser una coincidencia estad¨ªstica, pero si hay intenci¨®n de discriminar deben ser prohibidos. Algunos tipos de discriminaci¨®n se relacionan causalmente con variables protegidas, y por tanto deber¨ªan ser regulados.
P. ?Qu¨¦ le parece que las redes bayesianas que usted desarroll¨® sean ahora aprovechadas por empresas privadas para amasar grandes ingresos sin mostrar su c¨®digo?
R. No lo he visto todav¨ªa, pero s¨¦ que hay una tendencia a usarlas. Soy muy cauteloso con estas cosas. Por otra parte, si veo gente que desarrolla y usa adecuadamente el algoritmo que yo desarroll¨¦, genial. No necesito que mi nombre est¨¦ en los cr¨¦ditos del producto. Me han dicho que hay una red bayesiana en cada iPhone, no lo s¨¦. Google tampoco me dice c¨®mo lo usan.
P. Si empezase ahora su carrera como investigador, ?por qu¨¦ campo se interesar¨ªa?
R. Por la medicina personalizada. Y si me pusiera m¨¢s filos¨®fico, por la inteligencia artificial social.
P. ?Qu¨¦ es la inteligencia artificial social?
R. Consiste en conseguir que los ordenadores se comuniquen entre ellos igual que hacemos las personas. Con la idea de que cada uno de nosotros es un agente con voluntad propia, tiene creencias y deseos y que como especie social trabajamos juntos y formamos una sociedad en la que los unos conf¨ªen en los otros. Hay que establecer relaciones extremadamente b¨¢sicas entre los ordenadores, que tengan los planos de otros ordenadores. Hay que buscar formar empat¨ªa, confianza, responsabilidad, arrepentimiento, m¨¦rito y acusaci¨®n. Si conseguimos eso, los ordenadores trabajar¨¢n mucho mejor en sociedad que cada uno por su cuenta.
P. ?Eso podr¨ªa ayudarnos a entendernos mejor a nosotros mismos?
R. Exacto. Lo m¨¢s interesante de ese desarrollo ser¨ªa llegar a comprender qu¨¦ nos enfada, qu¨¦ nos inspira confianza, por qu¨¦ sentimos compasi¨®n por otros. Los ordenadores ser¨¢n un laboratorio para las ideas en ciencias sociales. Podremos implementar un planteamiento en algunas m¨¢quinas, apartarlas, cambiar alg¨²n componente y ver qu¨¦ pasa. Crear¨ªamos un avance tremendo en la comprensi¨®n de nuestra vida social.
P. ?Qu¨¦ consejo le dar¨ªa a quien est¨¦ ahora mismo empezando su carrera de investigaci¨®n en IA?
R. No aceptes el no como respuesta. No te metas en el aprendizaje profundo [por el deep learning], m¨¦tete en el entendimiento profundo. Evita el dogmatismo, recela de quienes insistan en una perspectiva y no atiendan la influencia de otros campos en el suyo. Algunas disciplinas son m¨¢s abiertas, otros m¨¢s cerradas¡ Elige una que muestre ser abierta, eso se puede ver entre otras cosas por el tipo de vocabulario t¨¦cnico que emplee.
Puedes seguir a EL PA?S TECNOLOG?A en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.