TikTok pidi¨® a sus moderadores limitar la difusi¨®n de im¨¢genes de feos y pobres
La plataforma de v¨ªdeos asegura que lo hizo para evitar casos de acoso y que las instrucciones ya no est¨¢n en vigor
TikTok no permite la difusi¨®n de material pornogr¨¢fico, cierra las cuentas de quienes aparezcan con armas (que no sean de juguete), bloquea por un d¨ªa las cuentas que publican im¨¢genes de comportamientos peligrosos, como bailar con un cuchillo en la mano. Como cualquiera de las grandes redes sociales, la plataforma china proh¨ªbe ciertos contenidos que es razonable vetar, sobre todo, en un foro que alberga m¨¢s de 800 millones de usuarios mensuales, el 41% de ellos, con edades comprendidas entre los 16 y los 24 a?os.
Pero tambi¨¦n ha tomado medidas para borrar o evitar la promoci¨®n de las ...
TikTok no permite la difusi¨®n de material pornogr¨¢fico, cierra las cuentas de quienes aparezcan con armas (que no sean de juguete), bloquea por un d¨ªa las cuentas que publican im¨¢genes de comportamientos peligrosos, como bailar con un cuchillo en la mano. Como cualquiera de las grandes redes sociales, la plataforma china proh¨ªbe ciertos contenidos que es razonable vetar, sobre todo, en un foro que alberga m¨¢s de 800 millones de usuarios mensuales, el 41% de ellos, con edades comprendidas entre los 16 y los 24 a?os.
Pero tambi¨¦n ha tomado medidas para borrar o evitar la promoci¨®n de las im¨¢genes compartidas por usuarios con cuerpos ¡°anormales¡±, ¡°expresiones faciales feas¡±, falta de dientes, personas mayores con ¡°demasiadas arrugas¡±, cicatrices evidentes, deformidades¡ As¨ª lo revelan las gu¨ªas con las que instru¨ªa a sus moderadores y que ha publicado esta semana el medio estadounidense The Intercept. Los documentos, que tambi¨¦n inclu¨ªan la recomendaci¨®n de borrar y limitar el alcance de escenarios rurales, con decorados antiguos, desordenados y deteriorados, integran una estrategia de moderaci¨®n de contenidos que ya ha sido puestas en cuesti¨®n en ocasiones anteriores. A finales del a?o pasado trascendi¨® su pol¨ªtica de limitar el alcance de las publicaciones de usuarios con discapacidades visibles.
TikTok ha quitado hierro al asunto, pero sin dar demasiados detalles: ¡°Las Normas de la Comunidad que se mencionan parecen ser en gran parte iguales o similares a las que The Guardian ya mostr¨® el a?o pasado en un reportaje y que fueron eliminadas antes de que se publicara¡±, explica el comunicado oficial que la plataforma ha enviado a EL PA?S, en referencia al citado ejemplo de las im¨¢genes personas con discapacidades. ¡°La mayor¨ªa de las normas que se presentan en The Intercept ya no se utilizan, o en algunos casos parecen no haber estado nunca en vigor¡±
Proteger discriminando
Tanto en esta ocasi¨®n como cuando trascendieron sus pol¨ªticas de moderaci¨®n ante contenidos generados por usuarios con discapacidad, TikTok afirma que la intenci¨®n no era da?ar sino proteger a los colectivos de potenciales situaciones de acoso. Sin embargo, la supuesta intenci¨®n de evitar el bullying no aparece en los documentos, que solo citan la necesidad de mostrar contenidos ¡°atractivos¡± y ¡°sofisticados¡± en sus canales de recomendaci¨®n. ¡°Aplicar esos criterios en espacios en los que participan millones de usuarios afecta a la visi¨®n que estos tengan de la realidad. En especial si ese filtro act¨²a sin que seamos conscientes de ello y en un contexto de desconocimiento tanto del contenido eliminado como de las razones reales que han llevado a esa moderaci¨®n¡±, advierte Silvia Mart¨ªnez, Profesora de la Universitat Oberta de Catalunya.
¡°Aunque fuera verdad lo de prevenir el bullying, que no lo creo; no lo haces dando menos visibilidad porque esto es discriminatorio¡±, se?ala Ariadna Matamoros-Fern¨¢ndez, investigadora del centro de investigaci¨®n de tecnolog¨ªas digitales de la Universidad de Tecnolog¨ªa de Queensland (QUT), en Australia. ¡°Cuando cambias los procesos de moderaci¨®n de contenido, tambi¨¦n cambias las culturas y dejas a usuarios que normalmente est¨¢n discriminados con m¨¢s discriminaci¨®n, discriminas a los que ya est¨¢n discriminados en esta sociedad¡±. Seg¨²n Fern¨¢ndez Matamoros, ese comportamiento no es exclusivo de TikTok. ¡°Las grandes redes sociales buscan tener una plataforma que sea business friendly y family friendly. Todo muy heteronormativo, de cara a una familia y a est¨¢ndares de belleza tradicionales, porque esto es lo que va a atraer anunciantes¡±, explica.
TikTok tambi¨¦n ha sido acusada de estar al servicio del Gobierno de Pek¨ªn. En diciembre de 2019 el ej¨¦rcito de EE UU prohibi¨® a sus soldados tener cuentas en la red social, con el pretexto de que su uso podr¨ªa representar una amenaza para la seguridad nacional. ¡°Los v¨ªnculos de TikTok con el Gobierno chino no son oficiales, pero por las normas de moderaci¨®n de contenido que se van distribuyendo se ve que hay reglas politizadas o que benefician a Pek¨ªn¡±, explica la investigadora de QUT. No en vano, el director general de la compa?¨ªa ya ha hecho p¨²blico su compromiso de ¡°profundizar en la cooperaci¨®n¡± con el Partido Comunista, seg¨²n afirm¨® en una carta abierta publicada en 2018.
Estas pol¨¦micas no son exclusivas de TikTok. Pas¨® con Tumblr hace dos a?os, cuando un cambio en las pol¨ªticas de moderaci¨®n, abordado con la intenci¨®n de limitar publicaciones de contenido adulto, acab¨® invisibilizando las expresiones del colectivo LGBTQ, para el que siempre hab¨ªa sido un espacio seguro. Y ocurri¨® tambi¨¦n con Facebook, un a?o antes, cuando se revel¨® que su algoritmo para detectar discurso de odio proteg¨ªa a los hombres blancos en detrimento de otros colectivos m¨¢s vulnerables. ¡°Se deber¨ªa insistir en la necesidad de que las plataformas realicen un ejercicio de transparencia para poder conocer realmente qu¨¦ condiciones de uso aplican y qu¨¦ normas de moderaci¨®n emplean. En paralelo, la educaci¨®n medi¨¢tica se vuelve incluso m¨¢s necesaria para poder desarrollar las competencias que nos permitan tener un esp¨ªritu cr¨ªtico, entender c¨®mo funcionan estos entornos de comunicaci¨®n y comprender los efectos de esos filtros y medidas¡±, razona Mart¨ªnez.
D¨ªas antes de las ¨²ltimas revelaciones relativas a los criterios est¨¦ticos de TikTok, la divisi¨®n estadounidense de la propia plataforma anunci¨® la futura creaci¨®n de un ¡°centro de transparencia¡± para la moderaci¨®n y las pr¨¢cticas de datos. Esta entidad, explican, est¨¢ llamada a ofrecer a expertos externos la posibilidad de ¡°ver directamente c¨®mo los equipo de TikTok afrontan la diaria y dif¨ªcil, pero cr¨ªticamente importante tarea de moderar el contenido de la plataforma¡±. A esta novedad se suma otra comunicada este mismo mi¨¦rcoles, dos d¨ªas despu¨¦s de que los documentos salieran a la luz. La red social ha formado un consejo asesor de contenidos integrado por expertos externos en tecnolog¨ªa, derecho, salud mental y comunicaci¨®n.