El odio se dispar¨® en Twitter tras la llegada de Elon Musk y su impacto es m¨¢s profundo de lo esperado
La cifra de mensajes t¨®xicos subi¨® un 50% en los meses que siguieron a la compra de la red social, que adem¨¢s recibieron un 70% m¨¢s de ¡®likes¡¯
La cifra de mensajes de odio en Twitter (ahora X) subi¨® un 50% desde que Elon Musk lo compr¨® en octubre de 2022 hasta junio de 2023, cuando bloque¨® el acceso a los datos de la red para investigadores y periodistas. Los mensajes con odio recibieron tambi¨¦n un 70% m¨¢s de likes en ese periodo. Respecto a los meses anteriores a la compra, la actividad solo subi¨® un 8% y los likes generales un 4%, lo que demuestra que el contenido de odio aument¨® mucho m¨¢s de lo que debiera, seg¨²n un art¨ªculo cient¨ªfico publicado este mi¨¦rcoles por investigadores de la Universidad de California en Berkeley y Los Angeles y de la Universidad del Sur de California.
Estos datos contrastan con las declaraciones p¨²blicas de Musk, que en diciembre de 2022 dijo que ¡°las impresiones de discurso de odio (es decir, las veces que se ve un tuit) siguen disminuyendo, a pesar del significativo crecimiento de usuarios¡±. Un usuario corriente de X ya habr¨ªa podido con poco esfuerzo observar esta tendencia en los ¨²ltimos a?os, pero este art¨ªculo es el primero que da una cifra concreta sobre este aumento de odio en la red.
A pesar de estas cifras claras, los autores no saben cu¨¢l es el motivo espec¨ªfico que ha causado este crecimiento del odio. ¡°Por los comentarios que hizo Musk sobre la reducci¨®n de moderaci¨®n en la plataforma, sumado al hecho de que despidi¨® a muchos trabajadores del equipo de confianza y seguridad y disolvi¨® el consejo asesor de seguridad, no me sorprende este aumento¡±, dice Dan Hickey, profesor de la Universidad de California en Berkeley. ¡°Pero no podemos decir con certeza por qu¨¦ creci¨®¡±, a?ade.
Otro de los fen¨®menos comprobados por este grupo de investigadores es que la actividad de bots tampoco ha disminuido y ¡°potencialmente ha crecido¡±, dicen los autores. La eliminaci¨®n de bots o cuentas falsas fue uno de los objetivos prioritarios de Musk y el motivo por el que impuls¨® el pago de suscripciones. Tampoco ha logrado cumplir su palabra.
¡°Aunque las tendencias que reportamos sobre X son preocupantes, las plataformas no tienen por qu¨¦ tener niveles tan altos de discurso de odio o actividad falsa¡±, dice Hickey. ¡°Son siempre las plataformas las que deciden qu¨¦ tipo de contenido es aceptable y c¨®mo dise?an sus algoritmos de recomendaci¨®n. Tienen la oportunidad de mejorar el entorno informativo promoviendo contenido que fomente la cooperaci¨®n en lugar de la divisi¨®n¡±, a?ade.
El odio se cuela en las cabezas
Estos cambios en X pueden parecer solo ligados a una red social de internet y con poca implicaci¨®n en nuestras vidas reales. Pero, seg¨²n otro nuevo estudio, no es as¨ª: la cantidad de odio que vemos en redes y medios es m¨¢s importante de lo que parece porque afecta a ciudadanos sin que sean plenamente conscientes.
?C¨®mo reacciona un usuario cuando ve tanto discurso de odio sobre minor¨ªas? ?Le provoca ansiedad o aversi¨®n, le provoca una resistencia y le dan ganas de actuar? Muy poco. ¡°Es un resultado extremadamente interesante porque muestra que no hay nada significativo, el contenido mismo no provoca reacci¨®n¡±, dice Pablo Madriaza, profesor chileno-canadiense de la Universidad de Quebec (Canad¨¢) que acaba de publicar un estudio que revisa, analiza y compara docenas de art¨ªculos cient¨ªficos sobre discurso de odio. ¡°Est¨¢ como banalizado, normalizado¡± y cuanto m¨¢s hay, menos sensibilidad a su presencia.
Pero esa reacci¨®n de aceptaci¨®n anodina no es la consecuencia m¨¢s sorprendente en individuos del discurso de odio. Lo m¨¢s extraordinario es que realmente lo que se ve y lee, influye: la opini¨®n personal sobre la minor¨ªa insultada empeora. ¡°Ese discurso produce cambios en las personas que est¨¢n expuestas sin que el contenido en s¨ª mismo provoque una reacci¨®n evidente¡±, dice Madriaza. ¡°Las personas cambian la actitud hacia las minor¨ªas sin que consideren que el contenido mismo es necesariamente negativo¡±, a?ade.
Estos resultados son la confirmaci¨®n cient¨ªfica de que el viejo dicho de ¡°miente que algo queda¡± es literalmente real. ¡°Es muy sorprendente y es triste tambi¨¦n. No es voluntario. Yo no decido que voy a odiar a las minor¨ªas¡±, explica Madriaza, pero acaba ocurriendo tras consumir este tipo de mensajes. En estos experimentos se expone a personas a un contenido de odio, y se les compara con otras que no lo han visto. Luego pasa unos d¨ªas o semanas y se mide el impacto de los mensajes originales; y confirman que influye.
Madriaza no puede inferir de esos estudios que provoque cambios sociales o en el voto de los individuos analizados: ¡°Estoy desensibilizado frente al discurso. No lo veo necesariamente como algo positivo o negativo. Pasa, lo veo y luego mi opini¨®n sobre los gais es peor. Pero de ah¨ª a vincularlo con el plano pol¨ªtico o con unas elecciones o con el voto, no¡±, a?ade.
Aunque parezca sorprendente, no lo es: confirma estudios cl¨¢sicos de la influencia de este tipo de discurso en otras sociedades y con otros medios previos a internet y las redes. Madriaza ha observado tambi¨¦n un modo de contrarrestar este tipo de discurso: el llamado contradiscurso funciona. Igual que el odio, los mensajes emp¨¢ticos tienen consecuencias concretas en lo que piensan las personas sobre minor¨ªas raciales, sexuales o religiosas.
¡°En un experimento donde se mostraba un mensaje como ¡®no te das cuenta del dolor que est¨¢s causando¡¯, apelando a la empat¨ªa de las personas, disminu¨ªa el n¨²mero de tuits insultantes, lo que mostrar¨ªa eventualmente que hay un efecto de moderaci¨®n¡±, dice Madriaza. ¡°Esto quiere decir que lo que favorece el discurso del odio, tambi¨¦n funciona para el otro lado. No es unidireccional. Esa ser¨ªa la esperanza, mientras esto sea conducido sobre todo no por gobiernos, sino por personas¡±, a?ade.