La incitaci¨®n al odio en internet estalla tras acontecimientos pol¨¦micos, incluso contra colectivos no relacionados
Los expertos advierten de los peligros de que la toxicidad surja de plataformas sin moderaci¨®n: ¡°No sabemos qu¨¦ est¨¢ pasando ah¨ª¡±
Lo que pasa en la calle estalla en las redes y un estudio revela ahora una compleja relaci¨®n entre acontecimientos de la vida real y la incitaci¨®n al odio en internet. Al analizar 1.150 comunidades extremistas en seis redes sociales, los investigadores identificaron, por ejemplo, un pico en el n¨²mero de publicaciones incitando el odio durante las manifestaciones del movimiento Black Lives Matter (las vidas negras importan), procedente del asesinato del afroamericano...
Lo que pasa en la calle estalla en las redes y un estudio revela ahora una compleja relaci¨®n entre acontecimientos de la vida real y la incitaci¨®n al odio en internet. Al analizar 1.150 comunidades extremistas en seis redes sociales, los investigadores identificaron, por ejemplo, un pico en el n¨²mero de publicaciones incitando el odio durante las manifestaciones del movimiento Black Lives Matter (las vidas negras importan), procedente del asesinato del afroamericano George Floyd a manos de la polic¨ªa. Pero lo m¨¢s notable es que no solo dispar¨® el n¨²mero de ofensas racistas, sino que tambi¨¦n se multiplicaban las centradas en la identidad de g¨¦nero y en la orientaci¨®n sexual, tem¨¢ticas que tienen poca conexi¨®n con las protestas enmarcadas sobre todo por cuestiones raciales. Los resultados demuestran que el racismo va seguido por insultos aparentemente no relacionados, aunque no queda claro el porqu¨¦.
Yonatan Lupu, profesor de la Universidad George Washington y coautor del estudio publicado hoy en la revista Plos One, explica a EL PA?S que tras un acontecimiento, como manifestaciones o elecciones, hay una reacci¨®n que empieza en las plataformas no moderadas y ¡°muy r¨¢pidamente comienza a aparecer¡± en las redes sociales m¨¢s populares. ¡°Lo que ocurre en 4Chan [un foro de internet] no se queda en 4Chan. Est¨¢ muy claro que se traslada a Facebook, a Twitter y a otras. Es un problema realmente grave, porque el contenido llega a un p¨²blico mucho m¨¢s amplio y potencialmente ayuda a los extremistas a radicalizar a personas que a¨²n no lo eran¡±, subraya.
Tras las elecciones estadounidenses de noviembre de 2020, se produjeron varias oleadas de publicaciones extremistas en redes sociales: aumentaron los insultos hom¨®fobos hacia ciertos pol¨ªticos, y la vicepresidenta Kamala Harris fue objetivo de ofensas machistas. Pero fue despu¨¦s de la muerte de Floyd, el 25 de mayo de 2020, cuando se produjo un repunte: el ¨ªndice de incitaci¨®n al odio racial aument¨® un 250% a principios de junio y, a finales de a?o, segu¨ªa el doble de lo que hab¨ªa sido antes de este suceso. Lo m¨¢s sorprendente, seg¨²n califican los autores, es que los dem¨¢s tipos de incitaci¨®n al odio tambi¨¦n aumentaron dr¨¢sticamente, especialmente las relacionadas con identidad y orientaci¨®n sexual (75%), etnia y nacionalismo (60%), y g¨¦nero (50%).
El papel de los medios
Los medios de comunicaci¨®n desempe?an un papel especialmente importante porque generan visibilidad de estos acontecimientos y con eso crean una especie de pauta para las comunidades extremistas. ¡°Parte de la raz¨®n por la que vimos un aumento tan grande de la incitaci¨®n al odio durante las protestas de Black Lives Matter es porque recibieron mucha atenci¨®n de los medios. Eso no significa que no deber¨ªa haberla recibido, no es responsabilidad de los periodistas prevenir este tipo de cosas. En todo caso, es un deber de las plataformas, pero como algunas de ellas no est¨¢n moderadas, no les interesa hacerlo¡±, desarrolla Lupu.
El equipo de investigadores, de la Universidad George Washington y Google, combin¨® m¨¦todos manuales y autom¨¢ticos para analizar 59 millones publicaciones en comunidades y grupos de seis redes sociales: Facebook, Instagram, VKontakte, consideradas m¨¢s moderadas, aunque en diferentes grados, y Gab, Telegram y 4Chan, con escasa moderaci¨®n, entre junio de 2019 y diciembre de 2020. Los investigadores observaron y codificaron alrededor de 20.000 publicaciones para clasificar siete categor¨ªas de discriminaci¨®n ¡ªhomof¨®bica, racista, religiosa, ¨¦tnica, sexista, xen¨®foba y antisemita¡ª, seg¨²n las disposiciones estadounidenses para los delitos y la incitaci¨®n al odio, o bien si el contenido apoyaba o promov¨ªa ideolog¨ªas fascistas o de nacionalismo extremo. A partir de este an¨¢lisis manual, entrenaron el algoritmo para diferenciar si un determinado contenido se trataba de un insulto o una discusi¨®n.
La moderaci¨®n en las plataformas m¨¢s populares es una arma de doble filo. Son esenciales y tienen que existir, pero si los autores de los insultos son expulsados debido a mayor moderaci¨®n de contenido, tienen otros sitios a donde ir y encontrar¨¢n un lugar donde pueden decir de todo, sin ninguna represalia, y eso intensificar¨ªa su radicalizaci¨®n y el acoso.
Opacidad en el origen
El estudio no ha rastreado a los usuarios, por lo que ¡°no hay pruebas directas¡± de como ocurre esta migraci¨®n desde las redes sociales m¨¢s moderadas, como Facebook, para las que son menos restrictivas, como Telegram. Aun as¨ª, investigaciones anteriores llevadas a cabo por el equipo de Lupu han desvelado unas estrategias para captar audiencia y huir de la moderaci¨®n. ¡°Cuando los extremistas todav¨ªa est¨¢n en plataformas convencionales, ellos crean un a especie de espejo con Telegram o Gab y publican diciendo ¡®si nos eliminan de aqu¨ª, nos trasladaremos all¨ª¡¯¡±, comenta el profesor de ciencias pol¨ªticas.
S¨ªlvia Maj¨®-V¨¢zquez, investigadora postdoctoral del Instituto Reuters para el estudio del periodismo de la Universidad de Oxford, coincide en que la comunidad cient¨ªfica carece de datos concretos sobre las consecuencias de las plataformas no moderadas en la formaci¨®n de la opini¨®n p¨²blica y que se deber¨ªa poner m¨¢s atenci¨®n a ellas. ¡°Sabemos que se transita de plataformas abiertas a las cerradas para movilizar capital humano, para coordinar actividades de protestas y contra-protestas. Pero no sabemos qu¨¦ est¨¢ pasando ah¨ª. Hay algunas se?ales que nos indican, pero no podemos cuantificar porque no tenemos los datos ni el acceso a ellas¡±, explica la experta.
Pese a que las plataformas moderadas son obligadas a actuar de forma inmediata para remover contenidos en determinados periodos de tiempo, Maj¨®-V¨¢zquez reconoce que es dif¨ªcil identificar los discursos de odio a trav¨¦s de los mecanismos autom¨¢ticos. ¡°En el lenguaje t¨®xico hay muchos elementos de sarcasmo, de iron¨ªa, que transciende el lenguaje literal. Eso hace con que sea m¨¢s dif¨ªcil de detectarlo, por lo tanto, de tomar acciones por parte de las plataformas. Eso no significa que no tengan deberes que hacer¡±, sostiene.
?Deber¨ªan los gobiernos involucrarse m¨¢s en la regulaci¨®n del contenido? Yonatan Lupu argumenta que no es una respuesta f¨¢cil. Mientras que el discurso de odio es extremamente preocupante, tambi¨¦n podr¨ªa ser igualmente peligroso si los gobiernos se implican demasiado en censurar los contenidos. ¡°Desafortunadamente, no estoy seguro de cu¨¢l es el equilibrio adecuado¡±, concluye el profesor.
Puedes seguir a EL PA?S TECNOLOG?A en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.