¡°La automatizaci¨®n masiva es un peligro que hay que saber manejar¡±
Nerea Luis, especialista en inteligencia artificial, reivindica todo lo logrado en los ¨²ltimos a?os, pero alerta de los riesgos de los algoritmos: ¡°Hay que estar al loro: ?a qui¨¦n le estamos dando todo el poder?¡±
Experta en inteligencia artificial y rob¨®tica, Nerea Luis (Madrid, 31 a?os) navega con ilusi¨®n, pero inquietud, el momento m¨¢s complejo de su disciplina. Por un lado, el desarrollo acelerado de aplicaciones fascinantes, como en el mundo de la medicina o el procesamiento del lenguaje natural; por otro, los ¡°casos catastr¨®ficos¡± en los que se equivocan o abusan de la opacidad, por culpa de una escasa regulaci¨®n. Por eso, m¨¢s all¨¢ de su trabajo en la compa?¨ªa Sngular, se implica a fondo en su tarea de divulgadora tecnol¨®gica, encadenando charlas, como la que le llev¨® al Tenerife GG, y ahora tambi...
Experta en inteligencia artificial y rob¨®tica, Nerea Luis (Madrid, 31 a?os) navega con ilusi¨®n, pero inquietud, el momento m¨¢s complejo de su disciplina. Por un lado, el desarrollo acelerado de aplicaciones fascinantes, como en el mundo de la medicina o el procesamiento del lenguaje natural; por otro, los ¡°casos catastr¨®ficos¡± en los que se equivocan o abusan de la opacidad, por culpa de una escasa regulaci¨®n. Por eso, m¨¢s all¨¢ de su trabajo en la compa?¨ªa Sngular, se implica a fondo en su tarea de divulgadora tecnol¨®gica, encadenando charlas, como la que le llev¨® al Tenerife GG, y ahora tambi¨¦n en su nueva secci¨®n en el programa ?rbita Laika de La2: ¡°Estamos en un punto en el que hace falta entender las aplicaciones de la inteligencia artificial; igual hay una que te ha afectado ya y no lo sabes¡±.
Pregunta. ?Cu¨¢l es la percepci¨®n de la gente?
Respuesta. El tema de la ciencia ficci¨®n ha hecho mella. Se nota mucho que todav¨ªa hay ese t¨®pico de la superinteligencia, de la singularidad, pero s¨ª se empieza a ver m¨¢s la parte de cu¨¢l es su aplicaci¨®n. La gente mayor te dice: me preocupa c¨®mo va a afectar al futuro de mi trabajo. Lo viven como algo muy propio.
P. Como una amenaza.
R. Una persona m¨¢s joven lo ve como incluso como algo que le puede ayudar en su carrera. Pero quien lleva 40 a?os currando y ve que esto cada vez coge m¨¢s velocidad, se plantea si ahora va a tener que aprender nuevo, reinventarse. Se habla mucho de reinventarse, igual tenemos que pensar tambi¨¦n otras opciones.
P. DALL-E, el programa que convierte palabras en im¨¢genes, ha tenido mucho ¨¦xito, pero se ha convertido en una parodia, la mayor¨ªa de la gente la usa para buscar la risa y el meme. ?No cabe el riesgo de que se perciba que la inteligencia artificial solo se utiliza para hacer chorradas?
R. Es verdad que a veces puede convertirse en parodia, pero yo lo veo como algo bueno, porque como todo el mundo entiende lo que es una imagen y le hace gracia, pero al final dice: ostras, esto ya est¨¢ pasando y lo pruebo con mis manos. Igual que pas¨® en su d¨ªa con estas aplicaciones de m¨®vil que sirvieron para que entendieran qu¨¦ es un deepfake porque ve¨ªa los v¨ªdeos. Eso ayuda mucho a que se entienda al menos una de las vertientes.
Hay que exig¨ªrselo [a las compa?¨ªas]: que den m¨¢s informaci¨®n, sobre todo cuando afecta a personas
P. ?Y c¨®mo interpreta lo pol¨¦mica con el programa LaMDA, cuando un ingeniero de Google asegur¨® que era consciente?
R. Ha generado mucho ruido y al final ha sido eclipsada por todo el l¨ªo. Ya no se habla de qu¨¦ hace LaMDA o el asunto que intenta resolver. LaMDA es brutal, si te lees la conversaci¨®n con el ingeniero, dices: ostras, vaya argumentos que es capaz de lanzar. Eso es muy dif¨ªcil en cuanto a coherencia y consecuci¨®n de la conversaci¨®n. Pero todos hablaban del salseo, si sentimientos, que si no tiene vida propia. Estos temas de si puede tomar conciencia generan much¨ªsimo ruido porque la gente no entiende. Y te olvidas del brutal avance en el ¨¢mbito de procesamiento de textos y de razonamiento. La gente de Google est¨¢ invirtiendo mogoll¨®n de pasta en resolver el problema, que es muy dif¨ªcil, y que salga as¨ª, te lo eclipsa. Llega un momento que en que es todo tan novedoso y tan futurista que puedes caer enseguida en ese mundo de ciencia ficci¨®n y de novela.
P. Le resulta molesto que al final Terminator inunde el debate sobre la inteligencia artificial.
R. Yo lo entiendo, si no me dedicase a esto, seguramente ser¨ªa una de las cosas que me llamase la atenci¨®n. Yo no te voy a mentir, entr¨¦ por eso en este campo, porque vi rob¨®tica, programas inteligentes y pens¨¦: mola y suena muy futurista. Pero ahora que hay tantas aplicaciones posibles¡ Con la velocidad a la que estamos yendo, no digo que te vayan a quitar el trabajo, porque yo honestamente creo que no va a pasar, pero s¨ª que se va a notar. Ese discurso se queda un poco eclipsado. Igual cuando llegue la ¨¦poca de elecciones empezamos a escuchar cosas de estas [r¨ªe].
P. ?Le preocupa el papel de las grandes compa?¨ªas tecnol¨®gicas?
R. Me preocupa un poco, porque es verdad que la penetraci¨®n ha sido muy fuerte. Pero, por otro lado, si miramos todo el camino, estoy convencida de que sin esas empresas hubiese sido muy dif¨ªcil profesionalizar todo lo que se ha hecho, con inversi¨®n pura. Est¨¢n empezando a publicar un mont¨®n [sus avances en revistas cient¨ªficas] en abierto, mucho m¨¢s de lo que yo me imaginaba. Y empezamos a ver colaboraci¨®n p¨²blico-privada. Es el camino, se ha marcado una tendencia y ahora es muy dif¨ªcil volver atr¨¢s. Pero creo que har¨¢ mucho el aspecto regulatorio si finalmente se aplica. Es decir, hasta ahora hemos avanzado un poco como a lo loco, pero igual para ciertas cosas s¨ª que hay que rendir de cuentas. Por otro lado, hay empresas importantes que se han retirado de asuntos controvertidos como el del reconocimiento facial. Est¨¢ bien que lo hayan hecho ellas mismas, aunque sea por un tema reputacional, porque ya sienta un precedente alrededor de estos temas, porque tienen mucho poder. Pero hay que estar ah¨ª un poco al loro: ?a qui¨¦n le estamos dando todo el poder? Porque va a ser un monopolio brutal en unos a?os. Nos queda poco y mi sensaci¨®n es que habr¨ªa que exigir unos m¨ªnimos para que la comunidad universitaria pueda aprovecharse.
P. ?En qu¨¦ sentido?
R. Informaci¨®n. De c¨®mo replicar lo que hacen. Al menos tener una forma de ver algo, aunque no sea totalmente transparente. Hay que exig¨ªrselo directamente: que den algo m¨¢s de informaci¨®n en seg¨²n qu¨¦ casos, sobre todo cuando afecta a personas.
P. ?Como por ejemplo?
R. Algoritmos aplicados en recursos humanos, que t¨² no seas informado de que tu curr¨ªculum ha sido cribado por un algoritmo. Temas de empleo, justicia, educaci¨®n, salud. En este ¨²ltimo la inteligencia artificial s¨ª que est¨¢ m¨¢s regulada, pero el resto de sectores no tanto, m¨¢s all¨¢ de lo que quiere hacer la empresa en el momento de salir al mercado.
Es todo tan futurista que puedes caer en ese mundo de ciencia ficci¨®n
P. ?Tan oscura es la caja negra [el desconocimiento de por qu¨¦ los programas deciden lo que deciden]?
R. Es dif¨ªcil. Para eso hay que entender c¨®mo funciona el deep learning [aprendizaje profundo, uno de los m¨¦todos con los que se entrena la inteligencia artificial]. Cuando hablamos de caja negra, realmente es por lo que subyace: detr¨¢s hay una cantidad de c¨¢lculos y de patrones que se codifican como vectores, como hiperplanos, componentes matem¨¢ticos¡ Arrojar luz sobre eso, salvo que hagas un trabajo espec¨ªfico de intentar visualizarlo, es muy dif¨ªcil y tradicionalmente no se ha hecho. Se ha avanzado m¨¢s en la l¨ªnea de buscar soluciones, en m¨¦tricas de acierto. ?Por qu¨¦ no crear algoritmos nuevos que est¨¦n monitorizando c¨®mo cambia? Vas a seguir sin entender al cien por cien como se ha hecho el aprendizaje, pero s¨ª que sirve para contrastar y para depurar algo que no funciona correctamente.
P. ?Y hay algo que le preocupe en el desarrollo de la inteligencia artificial, m¨¢s all¨¢ de que Terminator domine el mundo?
R. Podr¨ªa ser [r¨ªe]. Lo que m¨¢s me preocupa es c¨®mo unes estos desarrollos con el d¨ªa a d¨ªa de las personas. Los t¨¦cnicos van por su lado sacando todo esto, se va poniendo en producci¨®n, hay personas accediendo a estos sistemas que afectan a las personas y empieza a observarse con lupa. Pero c¨®mo se implementa una regulaci¨®n, en qu¨¦ se traduce a nivel formativo: hay una brecha ah¨ª entre divulgaci¨®n, formaci¨®n y futuro del trabajo, que es la parte que m¨¢s me preocupa. Al final ves que todo van tan r¨¢pido y da un poco de v¨¦rtigo que entre que no controlas el tema, la regulaci¨®n est¨¢ a medias, la gente de seg¨²n qu¨¦ sectores se pone m¨¢s nerviosa. Yo lo entiendo, si a alguien le dicen que hay unas nuevas herramientas que hacen el 80% de su trabajo, ahora cu¨¢l va a ser su funci¨®n. O en un triaje de urgencias a ti te ponen el ¨²ltimo y es porque se equivoca el algoritmo¡ Habr¨¢ situaciones de estas, que van a ser muy nuevas y que va a ser dif¨ªcil de resolver, hay que pensarlas hoy y vamos a ir aprendiendo. Es un poco como lo que pas¨® con la conducci¨®n al principio. Llegaron los coches y la gente conduc¨ªa como le daba la gana y luego se han ido poniendo regulaciones para reducir accidentes. Aparece el airbag, aparte del cintur¨®n, aparecen las se?ales¡ un poco eso es lo que le falta a la inteligencia artificial a d¨ªa de hoy.
P. ?Le faltan se?ales a la inteligencia artificial?
R. Claro, y le falta rendir cuentas. Qui¨¦n me asegura a m¨ª que no est¨¦ discriminando. Va a tener que pasar por un aprendizaje, obviamente, y vamos a ver casos catastr¨®ficos. Yo estoy convencida de que seguiremos viendo crisis reputacionales alrededor de inteligencia artificial. Pero sabi¨¦ndolo, intentar trabajar con transparencia, con la regulaci¨®n. Con la inteligencia artificial tienes un poder que antes no ten¨ªas: la automatizaci¨®n masiva. Es un peligro que hay que saber manejar. No puedes hacer que todo el mundo sea ingeniero. Si lo enfocamos bien, habr¨¢ entornos m¨¢s amigables con los algoritmos. Y si no, la palabra se ir¨¢ demonizando y se ver¨¢ todo como algo negativo. Es muy guay, pero a la vez, vaya marr¨®n.
Puedes seguir a EL PA?S TECNOLOG?A en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.