La incitaci¨®n al odio en internet estalla tras acontecimientos pol¨¦micos, incluso contra colectivos no relacionados
Los expertos advierten de los peligros de que la toxicidad surja de plataformas sin moderaci¨®n: ¡°No sabemos qu¨¦ est¨¢ pasando ah¨ª¡±

Lo que pasa en la calle estalla en las redes y un estudio revela ahora una compleja relaci¨®n entre acontecimientos de la vida real y la incitaci¨®n al odio en internet. Al analizar 1.150 comunidades extremistas en seis redes sociales, los investigadores identificaron, por ejemplo, un pico en el n¨²mero de publicaciones incitando el odio durante las manifestaciones del movimiento Black Lives Matter (las vidas negras importan), procedente del asesinato del afroamericano George Floyd a manos de la polic¨ªa. Pero lo m¨¢s notable es que no solo dispar¨® el n¨²mero de ofensas racistas, sino que tambi¨¦n se multiplicaban las centradas en la identidad de g¨¦nero y en la orientaci¨®n sexual, tem¨¢ticas que tienen poca conexi¨®n con las protestas enmarcadas sobre todo por cuestiones raciales. Los resultados demuestran que el racismo va seguido por insultos aparentemente no relacionados, aunque no queda claro el porqu¨¦.
Yonatan Lupu, profesor de la Universidad George Washington y coautor del estudio publicado hoy en la revista Plos One, explica a EL PA?S que tras un acontecimiento, como manifestaciones o elecciones, hay una reacci¨®n que empieza en las plataformas no moderadas y ¡°muy r¨¢pidamente comienza a aparecer¡± en las redes sociales m¨¢s populares. ¡°Lo que ocurre en 4Chan [un foro de internet] no se queda en 4Chan. Est¨¢ muy claro que se traslada a Facebook, a Twitter y a otras. Es un problema realmente grave, porque el contenido llega a un p¨²blico mucho m¨¢s amplio y potencialmente ayuda a los extremistas a radicalizar a personas que a¨²n no lo eran¡±, subraya.
Tras las elecciones estadounidenses de noviembre de 2020, se produjeron varias oleadas de publicaciones extremistas en redes sociales: aumentaron los insultos hom¨®fobos hacia ciertos pol¨ªticos, y la vicepresidenta Kamala Harris fue objetivo de ofensas machistas. Pero fue despu¨¦s de la muerte de Floyd, el 25 de mayo de 2020, cuando se produjo un repunte: el ¨ªndice de incitaci¨®n al odio racial aument¨® un 250% a principios de junio y, a finales de a?o, segu¨ªa el doble de lo que hab¨ªa sido antes de este suceso. Lo m¨¢s sorprendente, seg¨²n califican los autores, es que los dem¨¢s tipos de incitaci¨®n al odio tambi¨¦n aumentaron dr¨¢sticamente, especialmente las relacionadas con identidad y orientaci¨®n sexual (75%), etnia y nacionalismo (60%), y g¨¦nero (50%).
El papel de los medios
Los medios de comunicaci¨®n desempe?an un papel especialmente importante porque generan visibilidad de estos acontecimientos y con eso crean una especie de pauta para las comunidades extremistas. ¡°Parte de la raz¨®n por la que vimos un aumento tan grande de la incitaci¨®n al odio durante las protestas de Black Lives Matter es porque recibieron mucha atenci¨®n de los medios. Eso no significa que no deber¨ªa haberla recibido, no es responsabilidad de los periodistas prevenir este tipo de cosas. En todo caso, es un deber de las plataformas, pero como algunas de ellas no est¨¢n moderadas, no les interesa hacerlo¡±, desarrolla Lupu.
El equipo de investigadores, de la Universidad George Washington y Google, combin¨® m¨¦todos manuales y autom¨¢ticos para analizar 59 millones publicaciones en comunidades y grupos de seis redes sociales: Facebook, Instagram, VKontakte, consideradas m¨¢s moderadas, aunque en diferentes grados, y Gab, Telegram y 4Chan, con escasa moderaci¨®n, entre junio de 2019 y diciembre de 2020. Los investigadores observaron y codificaron alrededor de 20.000 publicaciones para clasificar siete categor¨ªas de discriminaci¨®n ¡ªhomof¨®bica, racista, religiosa, ¨¦tnica, sexista, xen¨®foba y antisemita¡ª, seg¨²n las disposiciones estadounidenses para los delitos y la incitaci¨®n al odio, o bien si el contenido apoyaba o promov¨ªa ideolog¨ªas fascistas o de nacionalismo extremo. A partir de este an¨¢lisis manual, entrenaron el algoritmo para diferenciar si un determinado contenido se trataba de un insulto o una discusi¨®n.
La moderaci¨®n en las plataformas m¨¢s populares es una arma de doble filo. Son esenciales y tienen que existir, pero si los autores de los insultos son expulsados debido a mayor moderaci¨®n de contenido, tienen otros sitios a donde ir y encontrar¨¢n un lugar donde pueden decir de todo, sin ninguna represalia, y eso intensificar¨ªa su radicalizaci¨®n y el acoso.
Opacidad en el origen
El estudio no ha rastreado a los usuarios, por lo que ¡°no hay pruebas directas¡± de como ocurre esta migraci¨®n desde las redes sociales m¨¢s moderadas, como Facebook, para las que son menos restrictivas, como Telegram. Aun as¨ª, investigaciones anteriores llevadas a cabo por el equipo de Lupu han desvelado unas estrategias para captar audiencia y huir de la moderaci¨®n. ¡°Cuando los extremistas todav¨ªa est¨¢n en plataformas convencionales, ellos crean un a especie de espejo con Telegram o Gab y publican diciendo ¡®si nos eliminan de aqu¨ª, nos trasladaremos all¨ª¡¯¡±, comenta el profesor de ciencias pol¨ªticas.
S¨ªlvia Maj¨®-V¨¢zquez, investigadora postdoctoral del Instituto Reuters para el estudio del periodismo de la Universidad de Oxford, coincide en que la comunidad cient¨ªfica carece de datos concretos sobre las consecuencias de las plataformas no moderadas en la formaci¨®n de la opini¨®n p¨²blica y que se deber¨ªa poner m¨¢s atenci¨®n a ellas. ¡°Sabemos que se transita de plataformas abiertas a las cerradas para movilizar capital humano, para coordinar actividades de protestas y contra-protestas. Pero no sabemos qu¨¦ est¨¢ pasando ah¨ª. Hay algunas se?ales que nos indican, pero no podemos cuantificar porque no tenemos los datos ni el acceso a ellas¡±, explica la experta.
Pese a que las plataformas moderadas son obligadas a actuar de forma inmediata para remover contenidos en determinados periodos de tiempo, Maj¨®-V¨¢zquez reconoce que es dif¨ªcil identificar los discursos de odio a trav¨¦s de los mecanismos autom¨¢ticos. ¡°En el lenguaje t¨®xico hay muchos elementos de sarcasmo, de iron¨ªa, que transciende el lenguaje literal. Eso hace con que sea m¨¢s dif¨ªcil de detectarlo, por lo tanto, de tomar acciones por parte de las plataformas. Eso no significa que no tengan deberes que hacer¡±, sostiene.
?Deber¨ªan los gobiernos involucrarse m¨¢s en la regulaci¨®n del contenido? Yonatan Lupu argumenta que no es una respuesta f¨¢cil. Mientras que el discurso de odio es extremamente preocupante, tambi¨¦n podr¨ªa ser igualmente peligroso si los gobiernos se implican demasiado en censurar los contenidos. ¡°Desafortunadamente, no estoy seguro de cu¨¢l es el equilibrio adecuado¡±, concluye el profesor.
Puedes seguir a EL PA?S TECNOLOG?A en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
?Tienes una suscripci¨®n de empresa? Accede aqu¨ª para contratar m¨¢s cuentas.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.
Sobre la firma
