Los algoritmos se ceban con los m¨¢s vulnerables en las redes: los inmigrantes son negros y tumultuosos; los refugiados, blancos y tranquilos
Una auditor¨ªa independiente de YouTube y TikTok detecta importantes sesgos algor¨ªtmicos que perpet¨²an la deshumanizaci¨®n y los estereotipos en torno a colectivos vulnerables
El 75% de los v¨ªdeos que ense?a YouTube cuando se hace una b¨²squeda con la palabra ¡°inmigrantes¡± muestra a hombres cruzando una frontera. En el 76% de los casos, se ve a personas no blancas movi¨¦ndose en grandes grupos, lo que ¡°contribuye a deshumanizarlas¡± y promueve la ¡°sensaci¨®n de amenaza o avalancha¡±. En la misma plataforma, en cambio, tras la palabra clave ¡°refugiados¡± aparecen mayormente v¨ªdeos de mujeres blancas, por influencia de la guerra de Ucrania, en situaciones sosegadas. Se aprecia mejor sus rostros y no se les ve cruzando fronteras o manifest¨¢ndose.
Estos son algunos de los resultados que arroja un an¨¢lisis realizado por Eticas a dos influyentes redes sociales: YouTube y TikTok. Esta consultora especializada en auditor¨ªas algor¨ªtmicas se ha lanzado a revisar de forma externa (extrayendo datos al abasto del p¨²blico, no aportados por las propias plataformas) el trabajo de varias redes sociales. ¡°Hemos querido analizar como se representa a inmigrantes y refugiados porque en los medios de comunicaci¨®n se ha hecho mucha pedagog¨ªa sobre c¨®mo se muestra a ciertos colectivos y qu¨¦ consecuencias puede tener, pero esa reflexi¨®n no se ha llevado a las redes sociales¡±, explica Gemma Galdon, directora ejecutiva de Eticas.
El Reglamento de Servicios Digitales (DSA, por sus siglas inglesas) exigir¨¢ a partir del a?o que viene a las tecnol¨®gicas que operen en la UE que realicen auditor¨ªas independientes para garantizar un espacio digital seguro en el que se protejan los derechos fundamentales de los usuarios.
¡°Nuestra investigaci¨®n ha demostrado que existe un problema de representaci¨®n sesgada y desfavorable de la migraci¨®n en YouTube. Determinamos que YouTube y otras partes involucradas deber¨ªan trabajar en la eliminaci¨®n de una serie de sesgos de los sistemas algor¨ªtmicos, mostrar m¨¢s transparencia e involucrarse m¨¢s con los propios migrantes¡±, concluye el estudio.
Para la elaboraci¨®n de este trabajo, realizado en Estados Unidos, Reino Unido y Canad¨¢, los analistas de Eticas recopilaron v¨ªdeos en torno a la tem¨¢tica de inmigraci¨®n durante dos meses (junio y julio de 2022 en el caso de YouTube y octubre a diciembre en el de TikTok). Lo hicieron a trav¨¦s de distintos perfiles en cada una de las plataformas para tratar de encontrar diferencias en los contenidos propuestos por el algoritmo. Entrenaron a usuarios ficticios para que se mostraran proinmigraci¨®n, antiinmigraci¨®n y neutros.
Las b¨²squedas se realizaron tambi¨¦n desde ubicaciones con inclinaciones pol¨ªticas distintas, de modo que se pudiese comprobar si hab¨ªa diferencias en este sentido. El an¨¢lisis de YouTube se condujo desde Londres y Toronto, ciudades que guardan relaciones muy distintas con la inmigraci¨®n y los refugiados. ¡°Busc¨¢bamos espacios que estuvieran muy connotados pol¨ªticamente. Toronto es una gran ciudad de Canad¨¢, que tiene un gran compromiso hist¨®rico de acogida de inmigrantes y refugiados. Londres, en cambio, es la capital de un pa¨ªs que lleva tiempo signific¨¢ndose por un cierre de fronteras y un discurso m¨¢s agresivo frente a la inmigraci¨®n¡±, detalla Galdon.
En el caso de TikTok, se eligi¨® San Francisco (mayor¨ªa dem¨®crata), Oklahoma City (mayor¨ªa republicana) y Virginia Beach (ambivalente). Se centr¨® el foco en EE UU por estar en un contexto de elecciones (las midterm elections, en las que se elige a todos los miembros de la C¨¢mara de Representantes y a parte de los del Senado).
Curiosamente, los resultados fueron muy similares en todos los casos: el algoritmo apenas discrimina a los usuarios con el tipo de contenidos que muestra, ni por las caracter¨ªsticas del perfil ni por la ubicaci¨®n. Y eso que se tuvieron en cuenta tantos los resultados de las b¨²squedas directas como los contenidos sugeridos por el algoritmo de cada plataforma.
YouTube: distorsiones en la imagen general
Con m¨¢s de 2.000 millones de usuarios activos, YouTube es la segunda plataforma social m¨¢s usada del mundo, solo detr¨¢s de Facebook. Seg¨²n el CEO de YouTube, Neal Mohan, hasta el 70% de los v¨ªdeos vistos en la plataforma son sugeridos por su sistema de recomendaci¨®n de v¨ªdeos. Esas sugerencias se hacen a partir de un c¨®ctel de datos en el que se incluye desde el historial de visualizaciones y las interacciones con los v¨ªdeos hasta la edad, sexo o localizaci¨®n del usuario. ¡°En consecuencia, los algoritmos de recomendaci¨®n de YouTube pueden influir en la percepci¨®n de un gran n¨²mero de personas en todo el mundo sobre la migraci¨®n¡±, sostienen los autores del informe.
El an¨¢lisis de esta plataforma muestra que, en la gran mayor¨ªa de v¨ªdeos relacionados con la inmigraci¨®n, los rostros de los personajes que aparecen en las grabaciones no son identificables. En m¨¢s del 60% de los casos, los protagonistas no son individuos, sino grandes grupos de personas (15 o m¨¢s). Solo un 4% de quienes aparecen bajo esta tem¨¢tica son blancos y las mujeres est¨¢n infrarrepresentadas (suponen entre un 1% y un 4%). Las personas que aparecen en los cortes no trabajan (entre el 75% y 84% de los casos) y est¨¢n protestando (entre 73% y 81%).
En el caso de los refugiados, el retrato es distinto. La mayor¨ªa son de rasgos cauc¨¢sicos. En m¨¢s de la mitad de las ocasiones se les puede identificar el rostro, hay m¨¢s proporci¨®n de v¨ªdeos en los que aparecen de uno a cinco individuos y se muestra a m¨¢s mujeres que a hombres. Hay m¨¢s v¨ªdeos en los que no est¨¢n cruzando una frontera que en los que s¨ª lo hacen, pese a que, como en el caso de los inmigrantes, lo han tenido que hacer por fuerza.
¡°Nuestros sistemas de b¨²squeda y recomendaci¨®n no est¨¢n dise?ados para filtrar ni degradar los v¨ªdeos o los canales seg¨²n determinados puntos de vista pol¨ªticos¡±, lee la pol¨ªtica de la plataforma a la que se remite la compa?¨ªa. ¡°Adem¨¢s, sometemos nuestros sistemas autom¨¢ticos a auditor¨ªas para asegurarnos de que no exista ning¨²n sesgo algor¨ªtmico no deseado (por ejemplo, de g¨¦nero). Corregimos los errores tan pronto como los detectamos y volvemos a preparar nuestros sistemas para que sean cada vez m¨¢s precisos¡±.
TikTok: mucho entretenimiento y poca pol¨ªtica
TikTok es la red social de mayor progresi¨®n en los ¨²ltimos a?os. Especialmente popular entre los m¨¢s j¨®venes, expone a los usuarios a v¨ªdeos cortos seleccionados por el algoritmo, que no tiene en cuenta lo que ven tus amigos ni siquiera tu pa¨ªs. La plataforma est¨¢ dise?ada para amplificar los contenidos m¨¢s virales, sean de donde sean y muestren lo que muestren (siempre y cuando cumplan con las normas de contenido legal de la compa?¨ªa).
Una de las conclusiones m¨¢s llamativas del an¨¢lisis de TikTok es que la plataforma china elude los v¨ªdeos de carga pol¨ªtica en torno a los inmigrantes o los refugiados. Menos de un 1% de los contenidos estudiados desarrollan argumentos a favor o en contra de estos colectivos. La mayor¨ªa de los v¨ªdeos relacionados con esta tem¨¢tica mostraban a personas haciendo chistes, cocinando, trabajando, creando arte o mostrando alguna habilidad curiosa.
El trabajo de Eticas concluye que el algoritmo de recomendaciones de la red social china ¡°no est¨¢ influenciada por las preferencias pol¨ªticas de los usuarios¡±. Tampoco por su localizaci¨®n. Eso choca con una investigaci¨®n realizada por The Wall Street Journal, seg¨²n la cual TikTok es capaz de aprender los intereses impl¨ªcitamente asignados a los bots y ofrecerles contenidos que se adapten a estos en menos de dos horas. ¡°Esto sugiere que el nivel de personalizaci¨®n del recomendador de TikTok se ajust¨® el pasado a?o y subraya la evoluci¨®n en el tiempo de los algoritmos y la necesidad de reevaluar peri¨®dicamente su impacto¡±, indica el informe.
TikTok no cuenta con mecanismos espec¨ªficos para tratar de corregir posibles sesgos, seg¨²n explica una portavoz de la plataforma. El algoritmo va ofreciendo contenidos de distintos creadores, se apuesta por la diversidad de fuentes para que no haya distorsiones y para subrayar el car¨¢cter global de esta red social.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.