¡°Esto es neocolonialismo digital¡±: Hablan los moderadores africanos que ponen a las grandes tecnol¨®gicas contra las cuerdas
Trabajadores kenianos subcontratados por Meta, TikTok y ChatGPT aseguran sufrir malas condiciones laborales y estr¨¦s postraum¨¢tico por la exposici¨®n durante largas horas a los v¨ªdeos violentos que filtran
Mojez Odhiambo se tumbaba en la cama, pero no pod¨ªa dormir: todo lo invad¨ªan v¨ªdeos violentos. Poco antes se hab¨ªa graduado en la universidad, en Relaciones Internacionales, y, aunque hab¨ªa so?ado con dedicarse a la diplomacia, llevaba meses buscando ofertas de trabajo. Lo que fuera. ¡°Aqu¨ª, en Kenia, la gente no consigue trabajar de lo que estudia¡±, dice. Entre los ¡°cientos¡± de solicitudes que present¨®, recuerda, solo le llamaron para un supuesto trabajo en atenci¨®n al cliente. Result¨® ser una subcontrata de moderaci¨®n para Tiktok.
Empez¨® con ganas. ¡°Era como ser el escudo entre las cosas malas que pasan en internet y la gente¡±, dice. A lo largo del a?o siguiente, Odhiambo asegura que revis¨® cientos de v¨ªdeos violentos al d¨ªa en turnos de nueve horas, con dos pausas de 30 minutos, y que a partir de entonces empez¨® a sufrir de insomnio y de estr¨¦s postraum¨¢tico. Hab¨ªa un psic¨®logo en la empresa, pero, asegura, los empleados no se sent¨ªan c¨®modos desahog¨¢ndose delante de un terapeuta contratado por la compa?¨ªa, especialmente cuando tambi¨¦n se quejaban de las condiciones de trabajo.
Las protestas contra las condiciones en las que trabajan los moderadores, encargados de que a su m¨®vil no llegue (m¨¢s) contenido t¨®xico y extremadamente violento, han llegado hasta los juzgados en pa¨ªses como Kenia, donde 184 africanos pelean desde hace meses en los tribunales contra Meta (empresa matriz de Facebook, Instagram y WhatsApp). Exigen 1.600 millones de euros como compensaci¨®n por ser despedidos en enero de este a?o, tras quejarse de sus condiciones de trabajo y del da?o a su salud mental y tratar de montar un sindicato. Aseguran, adem¨¢s, que por el mismo motivo fueron vetados por otra empresa de moderaci¨®n, Majorel. Sama, la empresa que los subcontrat¨®, niega las acusaciones.
Kenia, un pa¨ªs clave en el sector tecnol¨®gico africano, se ha convertido as¨ª en punta de lanza de las protestas contra las grandes tecnol¨®gicas. Percibida como el coraz¨®n tecnol¨®gico de ?frica (a menudo se le llama ¡°Silicon Savannah¡± en una alusi¨®n a Silicon Valley), se convirti¨® en l¨ªder de innovaci¨®n desde la primera d¨¦cada de los 2000 gracias a la abundancia de empresas emergentes y a la integraci¨®n de la tecnolog¨ªa en la vida cotidiana ¡ªel mism¨ªsimo fundador de Meta, Mark Zuckerberg, visit¨® el pa¨ªs en 2016 interesado en el innovador sistema de pago por m¨®vil M-PESA, que se usa desde para pagar el alquiler hasta para comprar una bebida en la calle¡ª. Hoy, Kenia promete construir la primera gran tecn¨®polis del continente. Aqu¨ª delegaron trabajo de moderaci¨®n tanto TikTok como Facebook/Meta o empresas de Inteligencia Artificial (IA), como ChatGPT.
Las huellas del contenido violento
Pero, ?qui¨¦n cuida a quienes nos cuidan en las redes sociales? La pregunta se presenta con cada vez m¨¢s frecuencia en distintos pa¨ªses del mundo. Este octubre, una docena de moderadores de Facebook en Barcelona (subcontratados por una empresa local) denunciaron a la compa?¨ªa por causarles traumas, seg¨²n contaron varios medios. En 2020, en Estados Unidos, Facebook tuvo que pagar 52 millones de d¨®lares (47 millones de euros) tras una demanda colectiva de trabajadores que lidiaron con contenido extremadamente violento y expl¨ªcito. El caso de Kenia es especialmente relevante para la reputaci¨®n global de Silicon Valley: porque se habla de salud mental y porque se habla de relaciones Norte-Sur.
A Richard Mathenge, que coordin¨® durante cuatro meses a un equipo de 11 personas que moderaban contenido de car¨¢cter sexual en la herramienta de inteligencia artificial ChatGPT en Nairobi, tambi¨¦n se le repiten im¨¢genes en bucle. La peor escena fue un abuso sexual a un ni?o, demasiado gr¨¢fico como para ser contado en estas l¨ªneas. Cuenta que, cuando no consigui¨® que su equipo recibiera atenci¨®n psicol¨®gica especializada, los moderadores empezaron a juntarse a modo de terapia de grupo, sin supervisores ni psic¨®logos. Solo unos colegas sacando fuera los demonios de horas de violaciones y asesinatos. ¡°Nos d¨¢bamos apoyo los unos a los otros¡±, recuerda. ¡°B¨¢sicamente nos compar¨¢bamos: ¡®pues lo que yo vi es a¨²n peor que lo que te toc¨® a ti...¡±.
Un estudio de investigadores de la Universidad brit¨¢nica de Middlesex publicado en 2023 entrevist¨® a 11 moderadores (no hab¨ªa africanos y no especificaban para qu¨¦ redes sociales trabajaban) que describ¨ªan pensamientos intrusivos, ataques de p¨¢nico, dificultades para mantener relaciones sexuales (tras ver contenidos con abusos sexuales) o para estar cerca de ni?os (tras haber tenido que lidiar con contenidos ped¨®filos).
Daniel Motaung, la cara m¨¢s visible de las protestas contra Meta en Kenia, habla de ¡°estr¨¦s postraum¨¢tico¡± y, aun acostumbrado a las c¨¢maras y los micr¨®fonos (con portada de la revista Time incluida), a veces le tiembla la voz. Su pelea en los tribunales contin¨²a con idas y venidas, tras un intento fallido de llegar a un acuerdo extrajudicial.
Un mercado de obra barata
¡°Esto es una neocolonizaci¨®n¡±, zanja Motaung en la entrevista, en un evento sobre libertades digitales de la Fundaci¨®n Mozilla en Nairobi, en septiembre. ¡°Vemos estos trabajos digitales como una creaci¨®n de oportunidades, de empleo. Pero ellos [las grandes plataformas] ven un mercado de obra de mano barata y una oportunidad de aumentar sus m¨¢rgenes de beneficios porque es m¨¢s f¨¢cil explotar a los africanos y pagarnos sueldos mediocres¡±, comenta. ?l, que creci¨® en una familia pobre, estudi¨® Derecho en la Universidad de Rhodes (Sud¨¢frica), y encontr¨® trabajo en una subcontrata que hac¨ªa moderaci¨®n de contenidos para Facebook en la capital de Kenia. Ha asegurado que cobraba unos 2,20 d¨®lares la hora (apenas dos euros) revisando contenidos extremadamente gr¨¢ficos.
¡°Esto es neocolonialismo digital¡±, repite en otra entrevista en el mismo encuentro Mathenge, que ahora trata de poner en pie el sindicato. ¡°?frica tiene un mercado de trabajo listo y disponible, y especialmente Kenia, con muchos j¨®venes, a menudo con educaci¨®n universitaria, que hablan bien ingl¨¦s... y que est¨¢n desesperados por trabajar, por hacer algo de lo que est¨¦n orgullosos. Cuando les das una oportunidad en estas plataformas [tecnol¨®gicas], la aceptan al vuelo, sin preguntas¡±.
La creaci¨®n de un sindicato para los trabajadores con contenidos en redes sociales en toda ?frica est¨¢ costando, asegura Motaung. Hay miedo a unirse, la gente no quiere hablar. ¡°Ahora mismo, si vas a una de estas compa?¨ªas todav¨ªa encontrar¨¢s a moderadores siendo maltratados, mal pagados, despedidos¡±, afirma. Consultada por este peri¨®dico, Sama respondi¨® por correo electr¨®nico que siempre ofreci¨® asistencia psicol¨®gica a sus trabajadores y que su ¡°equipo de bienestar¡± no se limit¨® a esperar que los trabajadores acudieran a buscar ayuda, sino que busc¨® ¡°de forma proactiva¡± a los empleados, caminando por las oficinas para verificar que los moderadores se encontraran bien y para recordarles que estaban disponibles. Majorel, que fue subcontratada para lidiar con la moderaci¨®n de TikTok en Kenia, no respondi¨® a este diario.
Un sistema problem¨¢tico
Aunque el trabajo de moderaci¨®n que denuncian los trabajadores de Meta, los autores de la demanda colectiva, se hac¨ªa en Kenia, en el mes de junio un juez concluy¨® que Facebook era el ¡°verdadero empleador¡± de los 184 denunciantes. ¡°Meta ya no se puede esconder detr¨¢s de subcontratas para excusarse por la explotaci¨®n y abuso de sus moderadores¡±, declar¨® la directora de Foxglove, Martha Dark, por correo electr¨®nico a este diario. ¡°Saben que el sistema es problem¨¢tico¡±, subraya Motaung. ¡°Tratan de distanciarse del problema. Si uno dice que Sama o Majorel trata mal a sus empleados, suena a que Facebook no es responsable¡±.
Meta rehus¨® comentar sobre este caso judicial a este peri¨®dico por encontrarse en medio del litigio, pero especific¨® por correo electr¨®nico que emplea a unas 15.000 personas para revisar contenido, incluyendo trabajadores independientes y subcontratados de ¡°20 localizaciones en el mundo¡±. ¡°Trabajamos en compa?¨ªas de regiones alrededor del mundo porque reconocemos la importancia de tener expertos locales en el lenguaje para aplicar nuestras pol¨ªticas en casos en los que ciertas palabras o contenidos requieren una comprensi¨®n de contexto adicional¡±, se?ala. Y a?ade: ¡°Nuestra escala global nos permite tambi¨¦n desplegar recursos si se produce un aumento en la demanda de un pa¨ªs espec¨ªfico, una crisis o un evento inesperado¡±. En cuanto a las condiciones de trabajo, Meta asegura que exige a las compa?¨ªas con las que trabaja que provean apoyo sanitario 24 horas, que paguen sueldos por encima de los est¨¢ndares de la industria en cada mercado, y que en ning¨²n caso se oponen a la formaci¨®n de sindicatos.
Motaung compara las condiciones de Norte y Sur: ¡°Los moderadores del Norte, de Am¨¦rica, en general no se quejan de malas condiciones de trabajo o de malas remuneraciones, porque tienen beneficios, seguros... Se quejan del da?o a su salud mental. Nosotros, en ?frica y en el Sur global, no tenemos esas cosas (¡) Somos de usar y tirar para estas compa?¨ªas. A m¨ª y a mis colegas nos dec¨ªan que ¨¦ramos in¨²tiles, que nos estaban haciendo un favor. Que si nosotros no quer¨ªamos el trabajo pod¨ªan salir a la calle y encontrar a alguien que s¨ª lo quisiera¡±.
El poder de las redes sociales
Daniel Motaung, convertido en el rostro de la rebeli¨®n africana contra las grandes tecnol¨®gicas, no ha abandonado internet. Usa Linkedin y Facebook, y planea abrirse X (antes Twitter), Instagram y ¡°todas las redes sociales, b¨¢sicamente¡±. ¡°Creo en el poder de las redes sociales. No abogo por su fin, sino por arreglar el sistema. Las redes han simplificado los flujos de informaci¨®n, y en pa¨ªses en desarrollo esto es clave para democratizar nuestras sociedades y asegurarnos de que se desarrollan mejor¡±.
Tampoco culpa a los usuarios de internet del contenido da?ino al que se enfrentan los moderadores. Aboga por un sistema de filtraci¨®n previa a la publicaci¨®n, en el que la Inteligencia Artificial ayude a identificar la mayor¨ªa de contenidos ¡°t¨®xicos¡±, y minimice as¨ª la exposici¨®n de los humanos. El contenido que no pueda clasificar la IA, porque ¡°no es perfecta para entender matices culturales¡±, pasar¨¢ a moderadores, propone. Estos, a su vez, tienen que ser clasificados por su nivel de tolerancia a contenidos, opina, porque ¡°hay personas a las que no les importa ver a gente mat¨¢ndose entre s¨ª¡±. Es importante, insiste, que los humanos sigan tomando decisiones sobre posibles vulneraciones de la libertad de expresi¨®n. Pero tienen que ser profesionales de la moderaci¨®n, ¡°y no gente que pasaba por la calle y que va a ser sustituida f¨¢cilmente¡±, reivindica.
Puedes seguir a Planeta Futuro en X, Facebook, Instagram y TikTok y suscribirte aqu¨ª a nuestra ¡®newsletter¡¯.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.