Suprimir la verificaci¨®n y moderaci¨®n en redes aumenta el odio y el acoso, advierten los expertos
La decisi¨®n de Meta de reducir los controles de contenidos favorece los efectos m¨¢s da?inos de las plataformas porque los usuarios carecen de herramientas para combatirlos
La compra de Twitter por parte de Elon Musk, mano derecha del pr¨®ximo presidente de EE UU, Donald Trump, convirti¨® la plataforma que el multimillonario rebautiz¨® como X en una selva sin normas en aras de una supuesta libertad de expresi¨®n. Un estudio de la Escuela de Ciencia y Tecnolog¨ªa City St. George¡¯s, de la Universidad de Londres, en nueve pa¨ªses, incluida Espa?a, se?...
La compra de Twitter por parte de Elon Musk, mano derecha del pr¨®ximo presidente de EE UU, Donald Trump, convirti¨® la plataforma que el multimillonario rebautiz¨® como X en una selva sin normas en aras de una supuesta libertad de expresi¨®n. Un estudio de la Escuela de Ciencia y Tecnolog¨ªa City St. George¡¯s, de la Universidad de Londres, en nueve pa¨ªses, incluida Espa?a, se?al¨® que X se ha convertido en solo dos a?os en la red del abuso o mal uso (abuse) pol¨ªtico, donde se relega a los adversarios, discrepantes o moderados para tratarlos como ¡°enemigos¡±. Las redes de Meta (Facebook, Instagram y Threads) siguen estos pasos al anular la verificaci¨®n de datos y relajar la moderaci¨®n de los contenidos. ¡°Las consecuencias de esta decisi¨®n ser¨¢n un aumento del acoso, el discurso de odio y otros comportamientos da?inos en las plataformas de miles de millones de usuarios¡±, advierte Alexios Mantzarlis, director de Seguridad, Confianza y Protecci¨®n del ¨¢rea tecnol¨®gica de la Universidad de Cornell. Pocas organizaciones defienden la medida.
El investigador de Cornell, que particip¨® en la red internacional de fact-check, destaca que la deriva de Meta, fundada y dirigida por Mark Zuckerberg, es doble: no solo deja de verificar los datos para identificar los bulos y delega en los usuarios su control, sino que, adem¨¢s, abre la puerta a los contenidos m¨¢s susceptibles de generar un discurso de odio. Lo confirma el nuevo director de asuntos globales de la multinacional, Joel Kaplan: ¡°Nos estamos deshaciendo de una serie de restricciones en temas como la inmigraci¨®n, la identidad sexual y el g¨¦nero que son objeto de frecuentes discursos y debates pol¨ªticos. No es justo que se puedan decir cosas en la televisi¨®n o en el Congreso, pero no en nuestras plataformas¡±.
Mantzarlis es muy cr¨ªtico con la medida: ¡°Adem¨¢s de poner fin al programa de verificaci¨®n de hechos, Zuckerberg tambi¨¦n ha anunciado un enfoque m¨¢s laxo para la moderaci¨®n de contenido, por lo que Meta no buscar¨¢ proactivamente contenido potencialmente da?ino en una amplia gama de dominios. Dependiendo de c¨®mo se aplique, las consecuencias de esta decisi¨®n ser¨¢n un aumento del acoso, el discurso de odio y otros comportamientos da?inos¡±.
Meta ha argumentado que la moderaci¨®n de contenidos y el programa de verificaci¨®n de datos han supuesto ¡°censura¡±, sesgos y l¨ªmites a la libertad de expresi¨®n, algo que la red internacional de verificadores niega de forma rotunda.
El investigador de Cornell tambi¨¦n rechaza los argumentos y asegura que Mark Zuckerberg dispone de datos recopilados durante ocho a?os que avalan el programa antibulos y los beneficios en el control de los mensajes indeseados. ¡°Sin embargo¡±, lamenta, ¡°en lugar de compartir pruebas contundentes, ha optado por imitar a Elon Musk y prometer libertad de expresi¨®n para todos¡±.
¡°El programa [de moderaci¨®n] no era de ninguna manera perfecto y los verificadores de datos, sin duda, se han equivocado en alg¨²n porcentaje de sus etiquetas [3,5%, seg¨²n las auditor¨ªas de Meta]. Pero debemos tener claro que la iniciativa de Zuckerberg de deshacerse de los verificadores de hechos es una decisi¨®n pol¨ªtica [politic], no de principios [policy]¡±.
Esta afirmaci¨®n de Mantzarlis hace referencia al giro radical de Meta tras la elecci¨®n de Trump y la designaci¨®n de Musk como mano derecha del pr¨®ximo presidente. De hecho, la red X ha sido una de las primeras en dar la bienvenida a sus competidores a un ecosistema de comunicaci¨®n social en el que han crecido los populismos en todo el mundo.
Angie Drobnic Holan, periodista, escritora y miembro de International Fact-Checking Network, coincide con el profesor de Cornell: ¡°Es lamentable que esta decisi¨®n se produzca a ra¨ªz de una presi¨®n pol¨ªtica extrema por parte de una nueva administraci¨®n y sus partidarios¡±.
Para Drobnic Holand, los verificadores de datos han sido imparciales y transparentes, por lo que, cuestionar esta objetividad, en su opini¨®n, ¡°proviene de aquellos que sienten que deber¨ªan poder exagerar y mentir sin refutaciones ni contradicciones¡±.
¡°Esta decisi¨®n [la supresi¨®n de la verificaci¨®n] perjudicar¨¢ a los usuarios de las redes sociales que buscan informaci¨®n precisa y confiable para tomar decisiones sobre su vida cotidiana y sus interacciones con amigos y familiares. El periodismo de verificaci¨®n de hechos nunca ha censurado ni eliminado publicaciones; ha a?adido informaci¨®n y contexto a afirmaciones controvertidas y ha desacreditado el contenido falso y las teor¨ªas de conspiraci¨®n¡±, concluye Drobnic Holan.
Tambi¨¦n en contra de la medida se pronuncia Tal-Or Cohen Montemayor, fundadora y directora de CyberWell, una organizaci¨®n de lucha contra el odio en las redes y especializada en combatir el antisemitismo. En su opini¨®n, la decisi¨®n de Meta supone ¡°el deterioro intencionado de las mejores pr¨¢cticas de confianza y seguridad¡± en un entorno donde la especialista observa una ¡°creciente evidencia de c¨®mo el discurso de odio, el contenido incendiario y el acoso provocan da?os en el mundo real¡±.
¡°El cambio [en Meta] significa una cosa, muy en l¨ªnea con la tendencia tanto de la cantidad como de la calidad del contenido que hemos visto en X desde que Musk adquiri¨® Twitter: m¨¢s discurso de odio, m¨¢s contenido politizado, m¨¢s nichos y respuestas menos efectivas de las plataformas¡±, a?ade Cohen.
La fundadora de CyberWell rechaza tambi¨¦n el argumento de Meta sobre facilitar los derechos de opini¨®n y eliminar una supuesta censura: ¡°Esto no es una victoria para la libertad de expresi¨®n. La ¨²nica forma de evitar la censura y la manipulaci¨®n de datos por parte de cualquier gobierno o corporaci¨®n ser¨ªa instituir requisitos legales y reformas sobre las grandes tecnol¨®gicas para que modifiquen las redes sociales y cumplan con los requisitos de transparencia¡±. ¡°La respuesta no puede ser menos responsabilidad y menos inversi¨®n por parte de las plataformas¡±, concluye.
A favor de Meta
Aunque la mayor¨ªa de los especialistas en comunicaci¨®n social es contraria a la nueva medida, la decisi¨®n de Meta ha contado con algunos apoyos, aparte de la bienvenida de X, su competidor en el mercado de las redes, motivada por la sumisi¨®n de Meta a la ideolog¨ªa de Elon Musk.
En este sentido, la organizaci¨®n conservadora Foundation for Individual Rights and Expression (FIRE), ha celebrado la decisi¨®n de Zuckerberg. ¡°Meta est¨¢ dando a sus usuarios lo que quieren: una plataforma de redes sociales que no suprime el contenido pol¨ªtico ni utiliza verificadores de datos de arriba hacia abajo. Es de esperar que estos cambios se traduzcan en decisiones de moderaci¨®n menos arbitrarias y en una mayor libertad de expresi¨®n en las plataformas de Meta¡±, afirma la fundaci¨®n.
El consejero de FIRE Ari Cohn defiende que la decisi¨®n es acorde con la primera enmienda de la Constituci¨®n de Estados Unidos, que garantiza la libertad de expresi¨®n. Para el integrante de este grupo, la medida de Meta ¡°protege las opciones editoriales de las empresas de redes sociales sobre el contenido de sus plataformas¡±. ¡°Es bueno que intenten voluntariamente reducir el sesgo y la arbitrariedad a la hora de decidir qu¨¦ contenido alojan, especialmente cuando prometen a los usuarios una cultura de libertad de expresi¨®n como lo hace Meta¡±, argumenta Cohn.
Ciclo de odio e indignaci¨®n
Sin embargo, distintos estudios se?alan que esta concepci¨®n de la libertad de expresi¨®n sin moderaci¨®n genera un c¨ªrculo vicioso que promueve los contenidos m¨¢s ¡°indignantes¡± y relegan los m¨¢s ¡°confiables¡±, por lo que se respaldar¨ªa el vaticinio de la mayor¨ªa de los expertos en redes sobre el aumento de discursos de odio y desinformaci¨®n.
Es la conclusi¨®n de un estudio publicado en Science, que advierte de que las publicaciones en las redes sociales que contienen informaci¨®n err¨®nea provocan m¨¢s ¡°indignaci¨®n moral (una mezcla de disgusto y rabia)¡± que las publicaciones con informaci¨®n confiable, y esa indignaci¨®n facilita la difusi¨®n de las noticias falsas porque los usuarios son ¡°m¨¢s propensos a compartirlas sin leerlas para reforzar sus posiciones morales o su lealtad a grupos pol¨ªticos¡±, seg¨²n explica Killian L. McLoughlin, del departamento de Psicolog¨ªa de la Universidad de Princeton.
Y ah¨ª entra la rueda de la selecci¨®n autom¨¢tica de contenido de las redes en busca de tr¨¢fico. ¡°Dado que la indignaci¨®n se asocia con una mayor participaci¨®n en l¨ªnea, es probable que la desinformaci¨®n que evoca indignaci¨®n se propague m¨¢s en parte debido a la amplificaci¨®n algor¨ªtmica del contenido atractivo¡±, escriben los investigadores.