Gabriele Bavastro, exempleado de TikTok: ¡°Casi el 50% de los contenidos moderados en las redes sociales son pornogr¨¢ficos¡±
El analista de datos, que trabaj¨® como moderador de la red social china durante casi dos meses, alerta de que un 1,3% de las cuentas eliminadas de TikTok son de menores de 13 a?os, que seg¨²n las normas de la tecnol¨®gica no pueden registrarse


Casi 3.000 v¨ªdeos, a un promedio de entre siete y nueve segundos cada uno. Un clip, otro, durante siete horas y 20 minutos. As¨ª pas¨® los fines de semana casi dos meses Gabriele Bavastro, moderando contenidos publicados en TikTok en Barcelona. Sigue viviendo all¨ª, pero este analista de datos de 40 a?os, nacido en Novi Liguri (Italia), ya no trabaja para la empresa china. Esas ocho semanas fueron en 2018, y en la ¨²ltima evaluaci¨®n que le hizo su manager antes del despido constaba como excelente su nivel de productividad; a nivel de calidad, sin embargo, le avisaban de que el n¨²mero de errores era ¡°un poco alto¡±. Especializado en marketing y estad¨ªstica, antes de TikTok trabaj¨® en webs de viajes y en gesti¨®n de redes sociales, ahora es analista en otra gran tecnol¨®gica y es el responsable de Colonizaci¨®n de las redes sociales. El caso de TikTok, uno de los cap¨ªtulos del libro La industria pornogr¨¢fica en internet. Causas y consecuencias (Octaedro), publicado el pasado octubre.
Tal y como cuenta Bavastro en su cap¨ªtulo, incluido en ese trabajo sobre las implicaciones del porno en la red ¡ªcoordinado por el investigador de la Universidad de las Islas Baleares Llu¨ªs Ballester¡ª, en TikTok se moderan en torno a 90 millones de contenidos al trimestre ¡°por no cumplir con las directrices sobre desnudos y contenido sexual con adultos¡± y, desde finales de 2022, se ha producido un incremento del 25% en el n¨²mero de v¨ªdeos suprimidos en una red social donde los adolescentes son el p¨²blico objetivo y que ya suma m¨¢s de 1.600 millones de usuarios activos al mes.
Pregunta. ?Por qu¨¦ le atrajo el trabajo en TikTok?
Respuesta. Era un trabajo de nivel bajo, hay mucha rotaci¨®n y era solo para los fines de semana, pero supon¨ªa una oportunidad para conocer en profundidad c¨®mo funciona una empresa como esa desde un departamento clave, donde se establecen los filtros de lo que se queda y se elimina.
P. ?Por qu¨¦ le echaron?
R. Es un misterio para m¨ª, no fui el ¨²nico. Creo que fue por seguridad. No pod¨ªas tener nunca el m¨®vil en la mesa, las salidas de USB del ordenador estaban deshabilitadas, no se pod¨ªa sacar ning¨²n documento interno bajo ning¨²n concepto. Me di cuenta de que hubo personas que consiguieron sacar algo, y por prevenci¨®n echaron a bastante gente. No me dieron motivos. Pronto v¨ª que ese trabajo no era para m¨ª, tuve suficiente con ocho semanas. Me estaba afectando bastante a la salud mental, porque son much¨ªsimos v¨ªdeos, muy repetitivos... Pasa pocas veces que te encuentres un contenido que te impacta mucho, pero, al menos, un par de veces al d¨ªa pasa.
P. ?C¨®mo era el trabajo de moderador, les asignaban contenidos de una zona concreta del mundo?
R. Hay colas de contenido dividido en audio, v¨ªdeo y fotos, clasificado por idiomas y mercado. Hablo cinco idiomas. ?ramos unos 200 haciendo el mismo trabajo: clasificar los contenidos en un espacio de tiempo de entre siete y nueve segundos. Si algo te generaba dudas, consultabas a compa?eros. Hab¨ªa que decidir el nivel de violencia. Por ejemplo, en un contenido pornogr¨¢fico de adultos, si no era muy expl¨ªcito, le pon¨ªas la etiqueta VTS (en ingl¨¦s, visible to self), de forma que solo lo pod¨ªa ver la persona que lo hab¨ªa subido. Se consideraba una violaci¨®n de las normas leve y el objetivo era evitar que se hiciese viral o que tuviese mucha difusi¨®n. Con contenidos m¨¢s graves, en los que se involucraba a ni?os, se reseteaba el perfil borrando todas las publicaciones de esa cuenta. Esos casos hab¨ªa que escalarlos a un manager, e incluso ponerlo en conocimiento de la Guardia Civil si era en territorio nacional. Si una cuenta era reseteada m¨¢s de cinco de veces, se eliminaba.
P. ?Qu¨¦ tipo de v¨ªdeos ve¨ªa?
R. La mayor parte aburridos. Por ejemplo, de adolescentes sin ning¨²n inter¨¦s. En el 90% de los casos no hab¨ªa que prestarles mucha atenci¨®n. En cambio, cuando alg¨²n menor sub¨ªa soft porn (porno suave) ten¨ªamos el mandato de borrarlo lo m¨¢s r¨¢pido posible. No son conscientes de cu¨¢ntas personas pueden llegar a verlo y qu¨¦ uso pueden hacer de ese contenido: hacerles chantaje o detectarles como objetivos vulnerables para ganarse su confianza [el llamado grooming, uno de los delitos online contra menores que m¨¢s ha crecido en los ¨²ltimos a?os]. Solo el 1% de los contenidos te dejaban tocado. Recuerdo un v¨ªdeo de una mujer, imagino que era en ?frica central porque hablaban portugu¨¦s, a la que estaban apu?alando y al final le cortaban la cabeza con un cuchillo. Ves muchos detalles y sabes que es real, im¨¢genes que nunca te borras de la cabeza. O uno en el que se ve¨ªa un gallinero de fondo, y luego la c¨¢mara se acercaba a un ni?o de siete u ocho a?os que violaba a una gallina. Si eres un poco sensible, te afecta, al cerebro le cuesta desconectar cuando llegas a casa. Nos dec¨ªan continuamente que era un trabajo duro, pero que alguien ten¨ªa que hacerlo.
P. La edad establecida por TikTok para abrirse una cuenta son los 13 a?os. Despu¨¦s de lo que ha visto, ?cree que es una edad demasiado baja?
R. Muchos no tienen ni 13. Era muy dif¨ªcil determinarlo: para cancelar una cuenta, la empresa nos ped¨ªa una prueba, por ejemplo una declaraci¨®n de voz o escrita del menor hablando sobre su edad. No existe ning¨²n mecanismo para verificarla. Una de nuestras obligaciones era identificar marcando una casilla todos los v¨ªdeos en los que aparec¨ªa un menor de 13 a?os, y se?alar si ese contenido necesitaba ser revisado. Por ejemplo, un padre que sube un v¨ªdeo con su hijo sin ning¨²n elemento preocupante no era un problema. De las cuentas eliminadas por TikTok en 2023, el 1,3% eran de menores de 13 a?os. Ninguna otra plataforma ofrece ese dato. El 49,3% de contenidos moderados en las redes sociales que he analizado ¡ªYouTube, Facebook, Instagram, Snapchat y TikTok¡ª son pornogr¨¢ficos.

P. En el cap¨ªtulo del libro aporta datos sobre las pol¨ªticas de transparencia para la protecci¨®n de los menores de las diferentes redes sociales. ?Cu¨¢l cree que puede ser m¨¢s peligrosa?
R. Con los datos disponibles, es imposible saberlo. La ¨²nica herramienta para comparar su actuaci¨®n es con sus informes de transparencia y son muy dif¨ªciles de interpretar, salvo que conozcas la terminolog¨ªa de sus manuales de moderaci¨®n. No hay normativa de los reguladores p¨²blicos sobre c¨®mo deben realizarse esos informes. Por ejemplo, Snapchat te da un dato muy valioso: la cantidad de contenidos moderados por cada 10.000 v¨ªdeos [es la ¨²nica red social en Espa?a que da tanto el recuento total de contenidos moderados como la distribuci¨®n en las diversas categor¨ªas, por ejemplo, la categor¨ªa ¡°contenido sexual¡± supone la mayor parte de las publicaciones eliminadas, un 68,87% del total].
P. En Snapchat lo que se elimina relacionado con la explotaci¨®n y el abuso sexual infantil es un 2,09 %, seg¨²n cifra el libro. ?El resto no da ese dato?
R. No, ni desglosan los contenidos pornogr¨¢ficos en los que aparecen adultos y menores. TikTok establece en sus manuales tres niveles de pornograf¨ªa: slight (son publicaciones muy soft, en las que pueden aparecer, por ejemplo, bailes er¨®ticos, personas con shorts o una menor que ense?a la barriga), moderado (cuando, por ejemplo, m¨¢s de un tercio de la pantalla est¨¢ ocupado por unos pechos tapados o por alguna zona del cuerpo er¨®tica), y grave (sexo expl¨ªcito o violencia sexual). Si todas las plataformas ofreciesen esos datos, se podr¨ªa hacer una comparativa de peligrosidad para un menor.
P. ?Cu¨¢les son los v¨ªdeos m¨¢s eliminados por TikTok?
R. La categor¨ªa ¡°protecci¨®n de menores¡± representa el mayor porcentaje de v¨ªdeos eliminados, un 30,6%. Incluye las subcategor¨ªas de desnudez y actividad sexual que involucra a menores (16,89%), actividades perjudiciales realizadas por ellos (10,55 %), da?os f¨ªsicos y psicol¨®gicos (1,56%), y seducci¨®n (grooming) (0,85%) y explotaci¨®n sexual (0,7%) de menores. Otras son ¡°im¨¢genes de desnudos y actos sexuales entre adultos¡±, que representan el 14,7% de los retirados, o ¡°suicidio, autolesiones y actos peligrosos¡±, el 3,1%. Cualquier v¨ªdeo con contenido sexual, se borra. La mayor¨ªa de los que moder¨¦ eran amateur.
P. ?Y cu¨¢nto tardan en eliminarlos?
R. El 71,1% de los v¨ªdeos eliminados en TikTok desaparecen antes de cualquier visualizaci¨®n. Del 30% restante, el 89% se retiran dentro de las primeras 24 horas desde la publicaci¨®n.
P. ?Cu¨¢l es el principal peligro cuando un menor sube un contenido ¨ªntimo?
R. Ahora, los chatbots ¡ªsistemas creados con inteligencia artificial¡ª act¨²an como personas reales, intentan ganarse la confianza de los menores de forma masiva, ya no son 50 ped¨®filos desde su casa, aunque tambi¨¦n los hay. Son grupos organizados que detectan y atacan sus cuentas con fines de extorsi¨®n, incluso reciben comisiones por cada menor captado. A trav¨¦s de un contenido aparentemente inofensivo, como una menor a la que se le ve un poco la tripa, detectan las cuentas e inician la conexi¨®n. Identifican perfiles a trav¨¦s de hashtags de salud mental o autolesiones, e incluso usan filtros para detectar condiciones de mala salubridad de la casa donde se hace el v¨ªdeo. Buscan personas desprotegidas. Los menores suelen grabar los v¨ªdeos en el ba?o de su casa o en su habitaci¨®n, espacios que consideran seguros. Si publican semidesnudos, los extorsionadores pueden chantajearles en el futuro para conseguir contenidos m¨¢s subidos de tono.
P. ?Cu¨¢l cree que es el camino para regular de la forma m¨¢s efectiva?
R. Sin duda, los gobiernos. Actualmente, muchas de las normativas, como las europeas, son voluntarias para las tecnol¨®gicas, y todav¨ªa no existe un sistema de verificaci¨®n de la edad eficaz. Los pa¨ªses se tienen que poner de acuerdo y dar m¨¢s valor a la protecci¨®n de los menores aunque, en parte, se pueda vulnerar de alguna forma el derecho a la privacidad de los usuarios. Hay que ser valiente con este tema.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
?Tienes una suscripci¨®n de empresa? Accede aqu¨ª para contratar m¨¢s cuentas.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.
Sobre la firma
