Alan Mislove, investigador: ¡°Hay empresas tecnol¨®gicas con una influencia alucinante sobre c¨®mo hablamos y pensamos¡±
El experto explica que los algoritmos median cada vez m¨¢s la percepci¨®n de la realidad. La dificultad de entenderlos sit¨²a a la sociedad en desventaja respecto a las grandes compa?¨ªas
Alan Mislove es profesor de ciencias de la computaci¨®n de la Universidad de Northeastern (EE UU) y lleva a?os estudiando c¨®mo funcionan los algoritmos que regulan nuestras vidas: desde los precios de vuelos a los anuncios o la concesi¨®n de cr¨¦ditos. Su experiencia le llev¨® a trabajar en la Casa Blanca un a?o y medio para que ayudara a crear una nueva legislaci¨®n al respecto. All¨ª observ¨® que todos los D...
Alan Mislove es profesor de ciencias de la computaci¨®n de la Universidad de Northeastern (EE UU) y lleva a?os estudiando c¨®mo funcionan los algoritmos que regulan nuestras vidas: desde los precios de vuelos a los anuncios o la concesi¨®n de cr¨¦ditos. Su experiencia le llev¨® a trabajar en la Casa Blanca un a?o y medio para que ayudara a crear una nueva legislaci¨®n al respecto. All¨ª observ¨® que todos los Departamentos del Gobierno quer¨ªan averiguar c¨®mo les iba a afectar la IA. Mislove, de 44 a?os y nacido en Nueva Orleans (EE UU), colabor¨® tambi¨¦n en la orden ejecutiva sobre IA de Biden, que ahora est¨¢ en peligro con el nuevo presidente Trump. Acaba de pasar por Madrid para hablar en la IMC (Internet Measurement Conference), una de las mayores conferencias sobre redes, tr¨¢fico y seguridad, que este a?o han organizado IMDEA Networks y la Universidad Carlos III.
Pregunta. ?Un algoritmo puede tener tanta importancia como para afectar el futuro de la democracia?
Respuesta. S¨ª, claro que puede ser clave. Hay un mont¨®n de gente que no se informa a trav¨¦s de medios tradicionales. Plataformas como X o TikTok son, en muchos casos, la forma en que la gente accede a informaci¨®n y, con tanto contenido disponible, necesitan algoritmos para decidir qu¨¦ van a ver. En pol¨ªtica es clave escuchar ambos bandos para entender cu¨¢les son sus argumentos, pero eso no es lo que los algoritmos suelen hacer. Est¨¢n optimizados para la interacci¨®n, para que pases m¨¢s tiempo en la plataforma. La mejor manera de lograrlo es mostrarte m¨¢s contenido en el que est¨¢s interesado en lugar de contenido que tal vez no te interese, pero que podr¨ªa serte ¨²til para tomar una decisi¨®n pol¨ªtica.
P. ?Los algoritmos logran cambiar opiniones?
R. Es una pregunta interesante. No creo que realmente sepamos la respuesta. Hace 20 o 30 a?os hab¨ªa un tipo de medios que la mayor¨ªa consum¨ªa. Por tanto, hab¨ªa una especie de base com¨²n de qu¨¦ se consideraba aceptado en general. Hoy en d¨ªa, ya no es as¨ª.
P. Es sorprendente que estudie esto desde hace a?os y no tenga la respuesta.
R. Hay soci¨®logos que est¨¢n observando el impacto directo, porque eso se centra en los humanos, que es algo que yo estudio poco porque me enfoco en los algoritmos. Estos sistemas cambian muy r¨¢pido. Hemos estudiado de todo, desde comercio electr¨®nico hasta apps de movilidad o publicidad. Se necesitan meses o a?os para entender realmente c¨®mo funciona uno de esos sistemas. Mientras dise?amos un experimento para responder alguna de estas preguntas, los sistemas ya han cambiado. X [antes Twitter], por ejemplo, ha cambiado much¨ªsimo.
P. ?Es preocupante no saber realmente c¨®mo nos afectan?
R. Es cierto que es cada vez m¨¢s dif¨ªcil entender c¨®mo los algoritmos afectan exactamente a nuestras vidas. Muchas veces la gente ni se da cuenta de qu¨¦ hay detr¨¢s de los sistemas que usan hay algoritmos de recomendaci¨®n o de clasificaci¨®n. Uno de los puntos clave en los que trabajamos cuando estuve en la Casa Blanca fue definir las pr¨¢cticas que el gobierno debe seguir al usar IA. Uno de los puntos principales fue la transparencia: notificar a las personas cuando hay un algoritmo que toma una decisi¨®n sobre ellas que podr¨ªa afectarles negativamente y tengan la posibilidad de apelar.
P. Eso para los algoritmos en sistemas p¨²blicos, pero los usuarios ya saben que las redes sociales se ordenan con algoritmos...
R. La mayor¨ªa s¨ª, pero lo que no saben es cu¨¢ntos datos recoge. Por ejemplo, las apps en tu m¨®vil recogen un chorro de informaci¨®n sobre ti. La gente no se da cuenta de la cantidad de datos que van a parar a esos algoritmos, ni de c¨®mo de descompensado est¨¢ por la cantidad de esfuerzo, dinero y recursos que se meten para afinar esos algoritmos y que te muestren justo lo que quieren.
P. El objetivo de estas compa?¨ªas es ganar dinero. Si tambi¨¦n cambian la sociedad, ?es una consecuencia imprevista?
R. No puedo hablar de sus motivaciones, pero s¨ª, el objetivo de estas compa?¨ªas es sacarte el m¨¢ximo provecho. Algunas de las empresas m¨¢s grandes del mundo manejan una cantidad de datos y tienen una influencia alucinante sobre c¨®mo hablamos o pensamos, ya sea a nivel nacional o mundial. Es f¨¢cil imaginar c¨®mo eso puede salirse de control.
P. ?El Gobierno de EE UU trata de prohibir TikTok por esos motivos?
R. Hay un mont¨®n de razones para prohibir TikTok. Cada vez m¨¢s gente se da cuenta de lo poderosos que son estos sistemas. Tienen el poder de influir en la gente de muchos modos. Vi por ejemplo un gr¨¢fico que circulaba por X, que dec¨ªa que la plataforma recomienda m¨¢s contenido de derechas. Aunque fuera cierto, que podr¨ªa serlo, quiz¨¢ ser¨ªa porque ese tipo de personas es m¨¢s activo en Twitter, o podr¨ªa ser porque el algoritmo realmente lo est¨¢ recomendando. No s¨¦ cu¨¢l de las dos es verdad y podr¨ªa dise?ar un experimento para estudiarlo. Pero hay muchas explicaciones potenciales. Solo porque veas una diferencia no significa que la culpa sea del algoritmo.
P. Es dif¨ªcil esperar cuando esta semana hay gente preguntando por la influencia de X en la elecci¨®n de Trump...
R. Otras veces ya hemos tenido casos donde est¨¢bamos seguros y luego no era as¨ª. Por ejemplo, hace 10 a?os, cuando estudi¨¢bamos la discriminaci¨®n en precios de vuelos. Hubo momentos en que la gente dec¨ªa ¡°busqu¨¦ un vuelo y otro busc¨® el mismo vuelo y ?los precios eran diferentes!¡± Nos pusimos a dise?ar experimentos durante un a?o y a controlar variables y descubrimos que solo en circunstancias muy espec¨ªficas eso era cierto. Casi siempre lo que pasaba era pura casualidad.
P. ?Todo casualidad?
R. Hab¨ªa alguna excepci¨®n. Descubrimos que en algunas apps cambia si est¨¢s en m¨®vil u ordenador. En otros, depende del pa¨ªs donde creen que est¨¢s: aunque sea el mismo vuelo, si lo compro en EE UU o en Espa?a podr¨ªa poner precios distintos. Las aerol¨ªneas llevan haciendo esto a?os. Hay una tendencia natural de pensar, cada vez que ves una diferencia, ¡°ah, un algoritmo me est¨¢ fastidiando¡±, lo que a veces es verdad, pero la mayor¨ªa de las veces, no. No es realmente discriminaci¨®n, solo prueban cosas diferentes.
P. Tambi¨¦n hay quien sospecha del m¨®vil porque le salen anuncios sobre cosas que acaba de comentar en voz alta...
R. Dir¨ªa que hay un poco sesgo de confirmaci¨®n. Solo te das cuenta cuando sucede, no cuando no sucede. Probablemente, hay mil otras cosas que le dijiste a tu pareja ese d¨ªa y no tuvieron ning¨²n resultado. Unos colegas m¨ªos hicieron un estudio porque la gente est¨¢ preocupada por si Alexa o las apps de tu m¨®vil te est¨¢n escuchando o grabando. Hicieron un estudio con apps m¨®viles. Encontraron apps que hac¨ªan otras cosas horribles, pero no que te grababan secretamente. A veces hay targeting basado en hogares. Las empresas de datos se dan cuenta de que vives con esa otra persona y asocian los perfiles de varias maneras. Entonces, en ciertos contextos podr¨ªa ser que tu pareja buscara algo y de repente t¨² empezaras a ver anuncios de eso. Pero creo que, de nuevo, esto podr¨ªa ser la explicaci¨®n o podr¨ªa ser simplemente azar y notaste esa ¨²nica coincidencia. Cient¨ªficamente hablando, deber¨ªamos dise?ar un experimento para demostrar que esto est¨¢ ocurriendo de manera sistem¨¢tica.
P. ?Los algoritmos de personalizaci¨®n ir¨¢n a m¨¢s?
R. A lo largo de los a?os, he visto solo que van en aumento. M¨¢s sistemas se personalizan simplemente porque hay m¨¢s datos disponibles. Cada vez que tienes una situaci¨®n donde hay un mont¨®n de contenido, m¨¢s del que alguien puede consumir, necesitas alg¨²n tipo de algoritmo que diga ¡°aqu¨ª tienes lo que te interesa¡±. Eso es la personalizaci¨®n. Es probable que estos algoritmos se metan cada vez m¨¢s en nuestro d¨ªa a d¨ªa.
P. ?Tiene m¨¢s miedo o esperanza para los pr¨®ximos cinco a?os?
R. Si me hubieras preguntado hace cinco a?os, habr¨ªa dicho que la gente no tiene ni idea de lo que est¨¢ pasando, habr¨ªa sido m¨¢s pesimista. Ahora, siento que hay m¨¢s conciencia de cu¨¢nto est¨¢n involucrados los algoritmos en estos sistemas. Es algo que est¨¢ en la opini¨®n p¨²blica. La respuesta optimista es que ves a los gobiernos realmente lidiando con estos temas, lo que me da esperanza de que, en cinco o diez a?os, habremos encontrado una manera de equilibrar las cosas. La respuesta pesimista es que estos sistemas avanzan tan r¨¢pido y las empresas son tan poderosas que los gobiernos van a tener problemas para seguir el ritmo.