Los oscuros mecanismos de censura de Facebook
Los criterios de aprobaci¨®n de la red social son tan opacos como sus algoritmos. Expertos alertan de una urgente necesidad de transparencia
El pasado 3 de mayo, el fundador de Facebook, Mark Zuckerberg, asegur¨® que ampliar¨ªa el equipo de censores en su plataforma en 3.000 personas. El empresario justific¨® esta medida por la necesidad de responder con rapidez ante el auge de contenidos que fomentan discursos de odio. Este equipo, compuesto actualmente por 4.500 trabajadores, se encarga de supervisar las actualizaciones en los muros de los usuarios de todo el mundo, eliminando aquellas que consideran inapropiadas. Sin embargo, la red social nunca ha desvelado cu¨¢les son los criterios en los que se basa para borrar una publicaci¨®n.
El diario The Guardian accedi¨® en exclusiva a m¨¢s de un centenar de archivos privados de la empresa que definen estos par¨¢metros y public¨® un art¨ªculo tres semanas despu¨¦s del anuncio de Zuckerberg exponiendo sus conclusiones sobre c¨®mo la plataforma modera temas como la violencia, el terrorismo, la pornograf¨ªa y el racismo. La controversia que gener¨® puso sobre la mesa el debate sobre la necesidad de una mayor transparencia en una red social que alcanz¨® los 2.000 millones de usuarios el mes pasado, casi un tercio de la poblaci¨®n mundial.
¡°Lo que Facebook est¨¢ haciendo para erradicar el discurso de odio de la plataforma puede ser la operaci¨®n de censura global m¨¢s opaca y extensa de la historia¡±, escrib¨ªan Julia Angwin y Hannes Grassegger en un reportaje para la web de investigaci¨®n ProP¨²blica el pasado junio. En ¨¦l, analizaban otros de los documentos internos del gigante social que marcan las directrices que sus censores utilizan para distinguir entre un discurso de odio y una expresi¨®n pol¨ªtica leg¨ªtima. Estos documentos reflejan que Facebook no elimina las esv¨¢sticas bajo una regla que permite ¡°exhibir s¨ªmbolos de odio para mensajes pol¨ªticos¡± y protege a los hombres blancos antes que a los ni?os negros en base a una serie de reglas que tienden a perjudicar a las minor¨ªas.
Estas normas establecen el sexo, la raza, la orientaci¨®n sexual y la afiliaci¨®n religiosa como categor¨ªas protegidas frente a la clase social, la edad, la apariencia y la ideolog¨ªa pol¨ªtica, que etiquetan como no protegidas. Un ataque dirigido a un segmento que comparta categor¨ªas de ambos segmentos se considera no protegida. De esta forma, y volviendo al ejemplo antes mencionado, la red social no elimina un comentario que ataque a ni?os negros porque la edad no constituye una categor¨ªa protegida y no lo considera un discurso de odio.
"No existe un camino que haga a la gente feliz", afirm¨® en una ocasi¨®n Dave Willner, exdirector del equipo de contenido y autor de uno de los principales libros de reglas para censurar publicaciones de Facebook que sigue vigente en la empresa. "Debido al volumen de decisiones, nuestro enfoque es m¨¢s utilitario de lo que estamos acostumbrados en nuestro sistema de justicia. Fundamentalmente no est¨¢ orientado a los derechos¡±.
El enfoque de Facebook es m¨¢s utilitario que el de un sistema de justicia: no est¨¢ orientado a los derechos
Dave Willner, autor de uno de los principales libros de reglas para censurar publicaciones de Facebook
El art¨ªculo de ProP¨²blica cita casos sonados de censura?que ni siquiera se corresponden con los par¨¢metros antes mencionados y que sacan a la luz el debate sobre la existencia de racismo en la red social, una cuesti¨®n de la que se han hecho eco medios como Techcrunch. Algunas reacciones han tenido repercusi¨®n fuera de los peri¨®dicos y han sido bastante aplaudidos, como la respuesta de una afectada por la censura en un art¨ªculo titulado Mark Zuckerberg odia a la gente negra.
En diciembre de 2015, un mes despu¨¦s de los atentados de Par¨ªs, la Uni¨®n Europea presion¨® a las empresas tecnol¨®gicas para que trabajaran m¨¢s para evitar la propagaci¨®n del extremismo violento en internet. Casi un a?o despu¨¦s, Facebook, en alianza con otras tres compa?¨ªas, acord¨® un c¨®digo de conducta contra discursos de odio que le obliga a eliminar la mayor¨ªa de peticiones justificadas sobre contenido ilegal en menos de un d¨ªa y permit¨ªa que fuera auditada por reguladores europeos. La primera auditor¨ªa reflej¨® que las cuatro compa?¨ªas apenas revisaban el 40% del discurso de odio dentro del plazo definido y apenas eliminaban una cuarta parte de las publicaciones.
El 19 de junio, Facebook public¨® un art¨ªculo en el que aseguraba que est¨¢ eliminando cerca de 15.000 mensajes de estas caracter¨ªsticas cada mes. Esta explicaci¨®n serv¨ªa como respuesta a una iniciativa del Gobierno alem¨¢n expuesta tres meses antes para posibilitar multar a las redes sociales que no sean capaces de eliminar informaciones falsas o que fomenten el odio con hasta 50 millones de euros.
Informaciones falsas y manipulaci¨®n en las redes
El art¨ªculo con m¨¢s interacciones en Facebook en los tres meses previos a las ¨²ltimas elecciones estadounidenses, seg¨²n un an¨¢lisis del portal de contenidos Buzzfeed, fue una informaci¨®n falsa que aseguraba que el Papa Francisco respaldaba la candidatura de Donald Trump. Este informe pon¨ªa de manifiesto que las 20 noticias falsas m¨¢s populares de 2016 tuvieron pr¨¢cticamente un mill¨®n y medio m¨¢s de interacciones que las 20 ver¨ªdicas m¨¢s compartidas.
Por si no queda claro: este GIF tambi¨¦n es falso
Pero las mentiras van m¨¢s all¨¢ de los medios. Un estudio de la universidad de Oxford publicado en julio de 2017 sobre manipulaci¨®n organizada en redes sociales expone una lista de una treintena de pa¨ªses ¡ªentre los que figuran Alemania, Reino Unido, Brasil, Israel, EE UU, Rusia y M¨¦xico¡ª en los que diversas organizaciones han utilizado bots para inundar Facebook y Twitter con noticias falsas con fines pol¨ªticos.
En marzo de 2016, Bloomberg public¨® un extenso art¨ªculo sobre la historia de Andr¨¦s Sep¨²lveda, un hacker colombiano que ayud¨® a manipular la opini¨®n p¨²blica durante las campa?as presidenciales de distintos pa¨ªses de Am¨¦rica Latina. Sep¨²lveda cre¨® un software para administrar y dirigir un ej¨¦rcito virtual de cuentas falsas en Twitter al que bautiz¨® como Depredador de Redes Sociales. Con ¨¦l, cre¨® todo tipo de tendencias para desprestigiar a distintos candidatos pol¨ªticos en M¨¦xico, Colombia, Nicaragua, Panam¨¢, Honduras, El Salvador, Costa Rica, Guatemala y Venezuela. Afirm¨® que tuvo que rechazar encargos pol¨ªticos en Espa?a por estar demasiado ocupado. ¡°Cuando me di cuenta de que las personas creen m¨¢s lo que dice internet que la realidad, descubr¨ª que ten¨ªa el poder de hacer creer a la gente casi cualquier cosa", confes¨® a la revista.
El caso de Sep¨²lveda es uno de los m¨¢s sonados, pero no el ¨²nico. En 2015, The New York Times public¨® un reportaje de investigaci¨®n titulado The Agency, que cuenta la historia de la Organizaci¨®n de Investigaci¨®n de Internet, un organismo con sede en San Petersburgo en el que trabajan m¨¢s de 400 personas encargadas de publicar miles de mensajes en redes sociales a trav¨¦s de cuentas falsas para favorecer al Gobierno ruso y generar caos en EE UU. La agencia invent¨® un escape de gas t¨®xico en Luisiana que termin¨® atribuyendo al ISIS y propag¨® infecciones de ¨¦bola en Atlanta sin que estas hubieran tenido lugar.
Facebook premia la viralidad de los contenidos y expone la informaci¨®n m¨¢s compartida por considerarla m¨¢s relevante. Esto posiciona los art¨ªculos m¨¢s llamativos, como los antes mencionados, por delante de otros contrastados menos interesantes. La plataforma afirma que est¨¢ trabajando en acabar con las noticias falsas y ha lanzado algunas iniciativas destinadas a este fin. En 2016, anunci¨® siete puntos de actuaci¨®n contra estas informaciones, que inclu¨ªan una detecci¨®n m¨¢s r¨¢pida de las cuentas que difunden bulos y un ataque a sus ingresos publicitarios Desde abril de este a?o, dispone de un sistema de filtrado para detectar bulos y frenar su difusi¨®n, que solo funciona en 14 pa¨ªses entre los que no se encuentra Espa?a.?Desde junio, ha empezado a restringir la edici¨®n de las descripciones e im¨¢genes en los art¨ªculos publicados a trav¨¦s de su red para evitar enga?os que solo buscan atraer m¨¢s usuarios. Seg¨²n Gizmodo, a finales del a?o pasado desarrollaron una actualizaci¨®n que facilitaba la localizaci¨®n de informaci¨®n falsa, aunque decidieron archivarla porque perjudicaba a los medios centrados en la derecha pol¨ªtica.
Los problemas de la personalizaci¨®n
Sin negar el avance que suponen estas medidas en la lucha contra la desinformaci¨®n, la opacidad del algoritmo del gigante social le hace un flaco favor a la transparencia informativa. Las variables que influyen en la selecci¨®n de los contenidos que encuentra un usuario cuando accede a su plataforma no son accesibles al p¨²blico y nadie sabe cu¨¢les son exactamente los factores que determinan los art¨ªculos que le est¨¢n ofreciendo. Los algoritmos pueden equivocarse o dejar de ser objetivos involuntariamente por no tener en cuenta factores relevantes en la inclusi¨®n de una u otra entrada. Porque el hecho de que sea privado no implica que sea perfecto.
Zuckerberg aclar¨® en noviembre de 2014 que su objetivo era ¡°construir un peri¨®dico personalizado perfecto para cada persona en el mundo¡±. Con esta pretensi¨®n, ha ayudado a conformar lo que Eli Pariser defini¨® tres a?os antes como la burbuja de filtros, un entorno en el cual las personas pierden acceso a las fuentes de informaci¨®n con la que no est¨¢n de acuerdo y se limita su visi¨®n del mundo a aquello que suelen compartir.
En una reciente entrevista a EL PA?S, Pariser alertaba de que ceder el poder de distribuci¨®n de la informaci¨®n a plataformas como Facebook implicaba aceptar que decidan lo que entra y lo que no y ahondaba en la diferencia entre el potencial de la red y su realidad, bien distinta. ¡°Internet puede ser una herramienta extraordinaria para descubrir ideas. Puedo leer cualquier diario del mundo, algo imposible hace 20 a?os. Pero, ?realmente lo hago?¡±.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.