Un estudio revela que Facebook podr¨ªa tumbar el impacto viral de los bulos
Un oscuro cambio en sus pol¨ªticas de moderaci¨®n redujo a cero las visualizaciones de contenidos falsos en las elecciones estadounidenses de 2020, pero no lo hizo en 2024
Los cambios en las pol¨ªticas de moderaci¨®n de una red social pueden tener un rol enorme en lo que ven sus usuarios. Este hecho, ya conocido, se ha podido medir por primera vez con datos cedidos por una plataforma. La desinformaci¨®n etiquetada en Facebook pas¨® de 50 millones de visualizaciones en julio de 2020 a pr¨¢cticamente cero en noviembre, d¨ªas antes de aquellas elecciones de EE UU.
Ese cambio moment¨¢neo se debi¨® a medidas extremas de moderaci¨®n llamadas ¡°romper el cristal¡± y ten¨ªan como objetivo limitar la viralizaci¨®n de contenido problem¨¢tico en plena campa?a electoral. Y lo consiguieron. Sin embargo, este a?o, tras el cambio de presidente en la Casa Blanca y con Mark Zuckerberg cenando con Donald Trump en su residencia, Meta dice que ha aprendido la lecci¨®n de la moderaci¨®n excesiva: ¡°Sabemos que cuando aplicamos nuestras reglas cometemos demasiados errores, lo que limita la libertad de expresi¨®n que queremos permitir. Demasiadas veces quitamos o limitamos contenido inofensivo y castigamos injustamente a demasiada gente¡±, escribi¨® Nick Clegg, presidente de Asuntos Globales de Meta, el pasado 3 de diciembre.
El problema de estas pr¨¢cticas es que dependen solo de la voluntad de Meta y sus dirigentes, que a su vez dependen de sus intereses, no del inter¨¦s p¨²blico para una democracia: ¡°La preocupaci¨®n es que estas empresas ignoren el inter¨¦s p¨²blico general, solo para cumplir con su objetivo de ganar dinero a corto plazo, y que tambi¨¦n puede implicar servir sin que se note a los que mandan¡±, dice David Lazer, coautor de la investigaci¨®n publicada en Sociological Science y profesor de la Universidad Northeastern de Boston (EE UU). El art¨ªculo pertenece a la serie de trabajos que un grupo de investigadores empez¨® a publicar en las revistas Science y Nature en verano de 2023 y que descubri¨®, por ejemplo, que la desinformaci¨®n era ampliamente consumida por gente de ideolog¨ªa de derechas. La publicaci¨®n tanto tiempo despu¨¦s de los hechos analizados ¡ªcuatro a?os¡ª de esta nueva investigaci¨®n se debe a los intrincados procesos de revisi¨®n y aceptaci¨®n de los art¨ªculos en las revistas cient¨ªficas.
Cada red es un mundo propio
Este acceso sin precedentes a las tripas de una red social permite probar c¨®mo las reglas y la moderaci¨®n de cada plataforma influyen en c¨®mo se distribuye y viraliza el contenido. Las caracter¨ªsticas de una red, como por ejemplo el funcionamiento de P¨¢ginas y Grupos en el caso de Facebook, y sus normas de moderaci¨®n, son dos elementos clave. Y ambos pueden tener un peso potencialmente mayor que el propio algoritmo para la informaci¨®n que ven los usuarios.
Junto a ese hallazgo, la investigaci¨®n tambi¨¦n ha confirmado algo ya apuntado por otras investigaciones anteriores: la distribuci¨®n de la desinformaci¨®n depende de un grupo peque?o de usuarios muy disciplinados. ¡°El resultado de que solo alrededor del 1% de los usuarios son responsables de la difusi¨®n de la mayor¨ªa de los mensajes etiquetados como desinformaci¨®n es consistente con lo que otras investigaciones han encontrado en otras plataformas y momentos¡±, dice Sandra Gonz¨¢lez Bail¨®n, profesora de la Universidad de Pensilvania (EE UU) y tambi¨¦n coautora del art¨ªculo. ¡°Podemos generalizar este patr¨®n seg¨²n el cual una minor¨ªa es responsable de la mayor¨ªa del contenido problem¨¢tico que circula por las redes¡±, a?ade.
M¨¢s all¨¢ de ese detalle, es dif¨ªcil aclarar si el comportamiento que describe este art¨ªculo funcionar¨ªa igual en otras redes. X, Instagram o TikTok tienen sus propias caracter¨ªsticas que provocan din¨¢micas distintas, adem¨¢s de su propia moderaci¨®n.
La capacidad de influir en elecciones
Este mes Meta ha revelado que, solo en 2024, ha eliminado unas 20 operaciones secretas de influencia organizadas por Gobiernos. Rusia sigue siendo el principal responsable, seguida por Ir¨¢n y China. Ninguno de estos esfuerzos tuvo ¨¦xito, seg¨²n la compa?¨ªa.
La capacidad de impactar en un proceso democr¨¢tico en un pa¨ªs es mucho mayor desde los puestos directivos estas redes. El problema es que a veces la corriente puede ir a favor de una ideolog¨ªa, pero luego se gira. Los casos recientes de X y Telegram, influidos por sus due?os y luego por presi¨®n de las autoridades en Brasil y Francia, demuestran que la ¨²nica soluci¨®n razonable es que las redes sean m¨¢s transparentes con sus medidas.
¡°A estas alturas resulta muy dif¨ªcil asumir que las plataformas van a hacer lo m¨¢s conveniente para proteger los procesos democr¨¢ticos, la convivencia, o un intercambio de opiniones racional y deliberativo¡±, dice Gonz¨¢lez Bail¨®n. ¡°La investigaci¨®n, el acceso a datos, es la ¨²nica manera de determinar c¨®mo las plataformas controlan el flujo de informaci¨®n. Nuestro trabajo deja clar¨ªsimo que tienen la capacidad de controlarlo. Es una fuente de poder que, en sociedades abiertas, no deber¨ªa poder ejercerse en la oscuridad¡±, a?ade. La esperanza de los investigadores es la regulaci¨®n para forzar a las plataformas a abrir el acceso a estos datos. Europa est¨¢ intentando hacer algo con su Ley de Servicios Digitales, que de momento no tiene equivalente en EE UU.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.