Expulsar a los l¨ªderes t¨®xicos de las redes sociales reduce la propagaci¨®n del odio en internet
Un estudio de Facebook demuestra que borrar un centenar de cuentas de ¡®insultadores¡¯ tiene un impacto positivo en la audiencia
Controlar el discurso de odio en internet es uno de los mayores desaf¨ªos de esta era de la informaci¨®n. Nadie lo niega, pero tampoco se sabe c¨®mo hacerlo de manera efectiva. Por ejemplo, eliminar a quienes diseminan contenidos t¨®xicos es una de las alternativas escogidas por algunas plataformas; ahora, un estudio llevado a cabo internamente por Facebook, con 26.000 de sus usuarios, muestra que excluir a los l¨ªderes de las comunidades extremistas es una forma eficiente de desmantelar el discurso de odio en las redes sociales, sobre todo a largo plazo. La eliminaci¨®n de un centenar de cuentas de ese tipo tuvo un gran impacto porque negar el altavoz a los miembros principales conduce a la mejora de la red en general.
Algunos estudios anteriores apuntaban a que la exclusi¨®n de estos perfiles nocivos en plataformas como Twitter, Reddit o Telegram ayudaron a reducir las actividades indeseadas, incluso esos discursos de manera general. Pero no era suficiente para demostrar la relaci¨®n de causa y efecto que s¨ª expone este estudio, llevado a cabo por investigadores de Meta, empresa matriz de Facebook, y publicada hoy en PNAS.
Para llegar a esas conclusiones, Daniel Robert Thomas y Laila A. Wahedi analizaron los efectos producidos en la audiencia de seis comunidades, cuyos representantes m¨¢s activos fueron expulsados de la plataforma. En concreto, los investigadores de Meta quer¨ªan entender hasta qu¨¦ grado este p¨²blico segu¨ªa observando, publicando y compartiendo contenidos de odio o interactuado con otros perfiles, despu¨¦s de que sus referentes dejaran de existir. Los resultados manifiestan que, de media, todos esos factores disminuyeron. ¡°Reducen su consumo y producci¨®n de contenidos que incitan al odio, y se relacionan menos con otros miembros de la audiencia¡±, afirman en el estudio.
Tras las exclusiones de los perfiles, los usuarios pasaron a ver un 10% menos contenido de odio de media. Dado que consum¨ªan al rededor de cinco publicaciones t¨®xicas diariamente, el resultado se traduce en una menos cada dos d¨ªas. Adem¨¢s, al dejar de interaccionar con miembros de la misma comunidad t¨®xica, los miembros pasaron a ser expuestos a otro tipo de contenido, grupos o comunidades, que no eran esencialmente de car¨¢cter violento. Ninguno de los datos del estudio puede vincularse a las cuentas de usuario originales, debido a los t¨¦rminos de protecci¨®n de la intimidad de Facebook.
La audiencia m¨¢s fiel a esas organizaciones que diseminan odio puede buscar otras fuentes tras la expulsi¨®n de los odiadores profesionales. Sin embargo, se trata de una reacci¨®n ef¨ªmera y que se ralentiza en tan solo dos meses. La audiencia m¨¢s lejana a esos l¨ªderes disminuye su interacci¨®n con este contenido desde un primer momento. Seg¨²n manifiesta el estudio, esto es positivo, porque se trata del grupo que tiene m¨¢s riesgo de ser influenciados por las comunidades t¨®xicas.
En general, los resultados sugieren que la eliminaci¨®n selectiva puede llevar a redes sociales ¡°m¨¢s saludables¡±. ¡°La eliminaci¨®n de l¨ªderes y los esfuerzos de degradaci¨®n de la red pueden reducir la capacidad de las organizaciones de odio a operar con ¨¦xito en internet¡±, explican.
No es f¨¢cil, en cualquier caso. Al ser excluidos de las plataformas populares, esos perfiles podr¨ªan f¨¢cilmente crear a nuevos, y tratar de construir una nueva red. Tambi¨¦n podr¨ªan migrar a otras plataformas. Y adem¨¢s, otras organizaciones t¨®xicas que s¨ª siguen vigentes podr¨ªan reemplazar su posici¨®n y cooptar a los simpatizantes, que seguir¨ªan expuestos a los contenidos da?inos. Para que esta estrategia de eliminaci¨®n sea m¨¢s eficaz, los autores proponen que las eliminaciones sean hechas por varios perfiles a la vez porque ¡°impide a las organizaciones reconstruir sus redes¡±, de manera que se dificulta para los miembros encontrarse de nuevo, porque no hay cuentas restantes para coordinar a los que regresan a la plataforma.
Discurso de odio y t¨®xicos
Si se trata de una decisi¨®n que queda a las manos de las plataformas, ?querr¨¢n realmente llevarlos a cabo? S¨ªlvia Maj¨®-V¨¢zquez, investigadora asociada al Instituto Reuters para el estudio del periodismo de la Universidad de Oxford y profesora en la Vrije University Amsterdam, explica que la moderaci¨®n de contenidos en redes sociales debe ¡°hacerse buscando un equilibrio entre la libertad de expresi¨®n y la preservaci¨®n de otros derechos que pueden verse da?ados¡±, por lo que es fundamental diferenciar entre el discurso de odio, el discurso t¨®xico y el incivismo.
En t¨¦rminos conceptuales, tal y como explica Maj¨®-V¨¢zquez, el incivismo se trata del nivel m¨¢s leve, que va desde un lenguaje informal que incluye faltas de respeto o sarcasmo. Cuando se trata de una manifestaci¨®n m¨¢s extrema y ¡°se ahuyenta a los dem¨¢s de participar de una conversaci¨®n¡±, nace el discurso t¨®xico, que puede convertirse en violento. ¡°Desde un punto de vista democr¨¢tico, son muy da?inos, porque no permiten el ideal democr¨¢tico de deliberaci¨®n p¨²blica¡±, detalla por correo electr¨®nico.
Seg¨²n opina esta experta, la suspensi¨®n de perfiles se debe hacer teniendo en cuenta esas dimensiones conceptuales y con mecanismos manuales ¡°que puedan garantizar que la libertad de expresi¨®n se est¨¢ preservando¡±. Y este criterio tambi¨¦n debe servir para las figuras pol¨ªticas. ¡°Hay que hacer un ejercicio como el que har¨ªamos fuera de las redes, en el que se equilibre el derecho a la libertad de expresi¨®n del que emite el mensaje y la preservaci¨®n de los dem¨¢s derechos fundamentales de la audiencia. Los mecanismos automatizados de eliminaci¨®n de mensajes y suspensi¨®n de cuentas deben revisarse continuamente y debe priorizarse la evaluaci¨®n de esos mensajes por parte de expertos, como ya hacen algunas plataformas con los consejos asesores externos para los casos m¨¢s relevantes¡±, subraya.
Uno de sus estudios llevados a cabo en el Instituto Reuters en siete pa¨ªses ha demostrado que ni siempre la relaci¨®n entre toxicidad y engagement es positiva, que cada caso es diferente: depende de la tem¨¢tica de cada discusi¨®n y de c¨®mo de severo es el contenido. En el contexto de la pandemia y al analizar Twitter, los resultados demostraron que la toxicidad y la popularidad del contenido t¨®xico no van de la mano. ¡°De hecho, vemos que los tuits m¨¢s t¨®xicos pierden popularidad entre la audiencia. Sin embargo, mensajes con niveles bajos de toxicidad s¨ª, que ven sus niveles de popularidad crecer¡±, dice Maj¨®-V¨¢zquez. Por lo cual, no es posible afirmar si esta relaci¨®n es fruto de una decisi¨®n de la audiencia de ¡°no premiar la toxicidad¡± o si el resultado de las moderaciones llevadas a cabo por la plataforma. ¡°Es algo que no podemos responder con los datos de nuestro trabajo, pero este resultado cuestiona la creencia que los contenidos t¨®xicos siempre son los m¨¢s populares¡±, concluye.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.