As¨ª contribuye Facebook a la violencia, y no tiene una soluci¨®n f¨¢cil
El caso de Myanmar es el mejor ejemplo de las dificultades que tendr¨¢ la compa?¨ªa para evitar m¨¢s acusaciones de incitar al odio
Naciones Unidas encarg¨® en marzo de 2017 un informe sobre las violaciones de derechos humanos en Myanmar. Al poco de empezar su trabajo, un comentario en Facebook en Myanmar llam¨® "traidor nacional" a un activista local que colaboraba con el equipo de la ONU. El post tuvo m¨¢s de 1.000 interacciones, con comentarios as¨ª: "Es un musulm¨¢n. Son perros y deben ser disparados" o "Si ese animal sigue por ah¨ª, encontradle y matadlo".
La misi¨®n de la ONU report¨® el post cuatro veces. La respuesta siempre fue que no iba en contra "de los Est¨¢ndares de Facebook". La misi¨®n mand¨® un email a una cuenta oficial de la red, sin respuesta. Al final, los miembros del equipo localizaron a un conocido en Facebook y el comentario fue eliminado. Poco despu¨¦s, la Misi¨®n detect¨® otros 16 posts calcados.
Mientras esto ocurr¨ªa online, en la vida real el activista recibi¨® advertencias de sus vecinos, amigos y otras personas que hab¨ªan visto su foto en Facebook. Es el primer aviso, le dec¨ªan. Seg¨²n Naciones Unidas, no es un caso aislado.
Esta peque?a historia sacada de las 444 p¨¢ginas del informe completo de Naciones Unidas es un ejemplo. Hay m¨¢s. Despu¨¦s de meses de pol¨¦mica sobre el papel de Facebook como amplificador del odio online en un pa¨ªs bajo la sombra del genocidio contra parte de su poblaci¨®n musulmana (los rohiny¨¢), la compa?¨ªa acaba de sacar su propio informe. Facebook lo encarg¨® a una empresa externa, BSR. Se public¨® la tarde del 5 de noviembre, el d¨ªa antes de las elecciones en Estados Unidos. Era un momento perfecto para evitar el foco.
La combinaci¨®n de la lectura de ambos informes aporta solidez a la acusaci¨®n que decenas de reportajes en medios y prepublicaciones de Naciones Unidas han lanzado: Facebook tiene responsabilidad en los delitos ocurridos en Myanmar. El reto es saber cu¨¢nta.
?Habr¨ªa habido violaciones de derechos humanos en Myanmar sin Facebook? S¨ª. ?Habr¨ªa habido las mismas, con la misma crueldad o con la misma aceptaci¨®n por la poblaci¨®n? No. "La Misi¨®n [de la ONU] no tiene ninguna duda de que la prevalencia del discurso de odio en Myanmar contribuy¨® al aumento de tensi¨®n y a un clima en que individuos y grupos pueden ser m¨¢s receptivos a incitamiento y llamadas a la violencia", dice Naciones Unidas.
Facebook tiene aqu¨ª un problema y una ventaja. La ventaja es que es una plataforma. Lo que publica es responsabilidad de otros. Pero ahora viene el problema: Facebook no es una plataforma inocente, sino tendenciosa. Su algoritmo calcula qu¨¦ mensajes captan nuestro inter¨¦s y los promueve. El dilema entre qu¨¦ es interesante por valioso y qu¨¦ por morboso a Facebook le da igual. Pero a? Myanmar, no.
Myanmar no es un pa¨ªs cualquiera. "Antes de 2013 era una sociedad repleta de rumores", dice BRS. En 2010 hab¨ªa un m¨®vil por cada 100 habitantes; en 2016, 95. "En un pa¨ªs donde la gente no sab¨ªa abrirse una cuenta de email, la mayor¨ªa de m¨®viles llegaba precargado con Facebook", a?ade el informe de BRS. Esta situaci¨®n, seg¨²n la ONU, ha llevado a que Facebook fuera internet en Myanmar. Se estima que hay unos 20 millones de usuarios entre 53 millones de habitantes.
Facebook no es una plataforma inocente, sino tendenciosa. Su algoritmo calcula qu¨¦ mensajes captan nuestro inter¨¦s y los promueve. El dilema entre qu¨¦ es interesante por valioso y qu¨¦ por morboso a Facebook le da igual
Si alguien sab¨ªa usar Facebook para promover una agenda de odio y control, Myanmar era su pa¨ªs. En 2013, activistas ya hab¨ªan advertido a Facebook del drama posible. Hoy la respuesta de Facebook a esta tragedia -y a otras- es que fueron demasiado lentos. Pero en Myanmar lo peor que pod¨ªa ocurrir no era que llegara a la Casa Blanca el presunto candidato de Rusia o que tus datos privados sean usados para mandarte anuncios. En Myanmar, las consecuencias eran m¨¢s graves.
A partir de ahora, Facebook tendr¨¢ menos opciones de excusarse en su lentitud. Estas son cinco retos que ha prometido o que podr¨ªa hacer y no est¨¢ claro que vayan a ocurrir. El futuro de Facebook -y no solo en Myanmar- pasa por aqu¨ª:
1. Qu¨¦ ocurre realmente. Facebook no comparte sus datos. La compa?¨ªa sabe cu¨¢nta gente de una ciudad reacciona a determinados posts y ver si coincide con disturbios. Facebook sabe qu¨¦ comentarios se promocionan y para qu¨¦ audiencias. Pero no lo dice: "En el contexto de Myanmar, este tipo de m¨¦tricas ayudar¨ªa a entender la escala del discurso de odio dentro de la plataforma, que es como decir que sabr¨ªamos cu¨¢nta gente ha interaccionado con contenido de odio, qui¨¦n lo ha compartido", dice Raymond Serrato, analista de redes sociales de Naciones Unidas.
Facebook no comparti¨® estos detalles ni con BSR, la empresa que hizo el informe, as¨ª que el mapa de odio en Facebook no parece que vaya a llegar pronto.
2. C¨®mo vigilar millones de mensajes. En Facebook hay m¨¢s de 2.000 millones de personas. El fundador Mark Zuckerberg ha prometido que 20.000 empleados controlar¨¢n los Est¨¢ndares de la compa?¨ªa: es decir, que miren mensajes reportados y decidan en segundos si son discurso de odio o cualquier otra anomal¨ªa.
El reto es extraordinario. Facebook est¨¢ en m¨¢s de 200 pa¨ªses, con sus culturas y lenguas. Para los 20 millones de usuarios en Myanmar, Facebook ha prometido 100 revisores, aunque en 2015 ten¨ªa solo dos, seg¨²n Reuters. "Nos preocupan sus sesgos, falta de contexto (muchos de los contratados son di¨¢spora [Facebook no tiene oficinas en Myanmar]) y falta de comprensi¨®n de lenguajes ¨¦tnicos", dice Victoire Rio, coordinadora en Myanmar de la Red de Responsabilidad Tecnol¨®gica.
Por si fuera poco, estos revisores se encargan de revisar los posts reportados por los usuarios. Pero no del resto.
3. C¨®mo adelantarse al problema. Los comentarios reportados ya son algo, pero la mayor¨ªa de mensajes borrados sobrevive unas horas que les permiten convertirse en virales.
Facebook tiene una respuesta a esa falta de inmediatez: inteligencia artificial. La decisi¨®n de suprimir ser¨¢ aparentemente siempre humana pero la detecci¨®n autom¨¢tica de lenguaje de odio aspira a acelerar el proceso. Mientras los mensajes son revisados, Facebook "reducir¨¢ su distribuci¨®n". Es su manera de decir que no permitir¨¢ que el algoritmo haga su trabajo, es decir, que viralice un mensaje a pesar de que sea de odio.
4. C¨®mo no frenar la mina de oro. Facebook gana mucho dinero porque los usuarios lo usan. Y lo usan porque les gusta lo que encuentran. Al contrario que un peri¨®dico, que procura poner lo importante primero, La compa?¨ªa pone "lo que te interesa" primero.
Ese c¨¢lculo lo hace un algoritmo para cada usuario. Si en Myanmar -o donde sea- hay que retocar el trabajo del algoritmo para disminuir odio, para a?adir fuentes fiables o promover contenido que "anime a la paz" o "una a comunidades", como pide el informe de BSR, o puede perjudicar la mina de oro del crecimiento de Facebook: el aumento de usuarios. Es como si a aficionados del Real Madrid, Facebook les ense?a que la gente del Atl¨¦tico y del Bar?a son buenos tipos. Su uso descender¨ªa.
Ese es el gran dilema de Facebook para el futuro. Su modelo de negocio es dar pasteles a quien le gusta el dulce y jud¨ªas a los vegetarianos, pero nunca al rev¨¦s. Si ahora debe ser ecu¨¢nime, no le ser¨¢ f¨¢cil.
5. C¨®mo ganar a los represores. El cl¨ªmax pol¨ªtico de Facebook fue el 25 de enero de 2011: fue la primera manifestaci¨®n contra el r¨¦gimen en Egipto, convocada en la red social. Poco despu¨¦s, ese mismo r¨¦gimen (sin Mubarak) entendi¨® que Facebook pod¨ªa ser un arma poderosa para dos objetivos: identificar disidentes y promover campa?as de desinformaci¨®n.
El gobierno de Myanmar aprendi¨®, como los de Filipinas o Rusia. El discurso de Facebook es que la red sirve para conectar a gente y ayudar a que conozcan sus derechos y sus libertades. Uno de ellos es la libertad de expresi¨®n. "Estamos menos preocupados por la restricciones a la libertad de expresi¨®n porque nuestra proximidad al da?o real es mucho mayor", dice un activista an¨®nimo en el informe de BRS. En un pa¨ªs donde el ej¨¦rcito monta p¨¢ginas de Facebook para amenazar a ciudadanos ocultas tras nombres como "Profesoras j¨®venes" o "Se?or Celestial", la libertad de expresi¨®n es un problema secundario.
"Facebook se convirti¨® en una herramienta para la guerra psicol¨®gica. Permit¨ªa campa?as de propaganda sin apenas coste con una velocidad y alcance sin precedentes, a la vez que convert¨ªa en barato y f¨¢cil identificar y acosar a los que se opon¨ªan a esa narrativa", dice Rio. Eso hace Facebook y cambiarlo no es f¨¢cil.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
?Tienes una suscripci¨®n de empresa? Accede aqu¨ª para contratar m¨¢s cuentas.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.