¡°La tecnolog¨ªa de Facebook no puede predecir el discurso de odio para frenarlo¡±
La tecnol¨®gica castigar¨¢ los discursos de odio y los llamamientos a la violencia en la plataforma
Tessa Lyons reconoce las limitaciones de Facebook. Entre ellas, la incapacidad de la tecnol¨®gica para lidiar en solitario con las informaciones err¨®neas que se publican diariamente en la plataforma. ¡°Diferenciar un mensaje considerado discurso de odio de una informaci¨®n falsa no es f¨¢cil ni para un humano; hay que analizar muchos detalles y la tecnolog¨ªa no llega¡±, admite Lyons, una de las responsables del departamento que lucha contra la llamada misinformation (en espa?ol, informaci¨®n err¨®nea) de Facebook.
Lyons ha anunciado este jueves en la sede central de Facebook en Menlo Park, California, que la tecnol¨®gica castigar¨¢ los discursos de odio y los llamamientos a la violencia eliminando ese tipo de contenidos de la plataforma. Para ello, se aliar¨¢n con organizaciones locales y agencias de seguridad para determinar si el contenido publicado en la red social es inexacto o enga?oso y contribuye a cometer actos de violencia f¨ªsica.
El anuncio lleg¨® despu¨¦s de que el pasado marzo el gobierno de Sri Lanka bloqueara el acceso a las redes sociales para detener la difusi¨®n de v¨ªdeos que instigaban a la violencia contra musulmanes, a los que se acusaba de estar vendiendo comida envenenada a los budistas. Tras su comparecencia ante m¨¢s de 30 periodistas internacionales, invitados a Menlo Park en un intento de Facebook por ofrecer una imagen de transparencia, Tessa Lyons contest¨® a las preguntas de EL PA?S.
Pregunta. ?Cu¨¢l es la definici¨®n de Facebook de noticia falsa?
Respuesta. Internamente no usamos la palabra fake news. Solo lo hacemos para hablar de puertas hacia afuera porque es el t¨¦rmino que emplea la gente. No creemos que tenga una definici¨®n clara, pero nuestro foco est¨¢ en detectar el relato de hechos falsos. Uno de los retos de la informaci¨®n err¨®nea es que no hay una sola fuente para la verdad. Si piensas en todas las noticias que lees al d¨ªa, ?cu¨¢ntas de ellas son objetivamente verdaderas y cu¨¢ntas objetivamente falsas? Hay muchos contenidos en los que no se ve de forma clara, que est¨¢n en un espacio gris, en los que la gente presenta los hechos tal y como los ve. Es su realidad. Si los empleados de Facebook revisaran todo lo que la gente quiere publicar para determinar si ese contenido es verdadero o falso y en base a esa determinaci¨®n decidi¨¦ramos si puede permanecer en la plataforma, ser¨ªa una postura extrema y muy negativa. Lo que tampoco ser¨ªa admisible es que no tom¨¢ramos ninguna responsabilidad y permiti¨¦semos que el discurso de odio y la violencia fueran difundidos. La soluci¨®n es una f¨®rmula intermedia que hay que establecer.
P. ?Tienen identificados el tipo de perfiles que suelen publicar contenidos nocivos?
R. Hay muchos tipos de desinformaci¨®n: hay malos actores, malos comportamientos y mal contenido. Dentro de los malos actores est¨¢n las cuentas falsas;?en el primer trimestre de 2018 hemos eliminado 583 millones. Dentro de los malos comportamientos, usar t¨¢cticas como el spamming?[env¨ªo en grandes cantidades de correos no deseados] para difundir mensajes, y dentro de mal contenido est¨¢n las noticias falsas, los discursos de odio o el clickbait [contenidos que buscan atraer el mayor n¨²mero de clics con titulares sensacionalistas o inexactos]. Nunca son elementos aislados, se usan diferentes combinaciones. Cada una de esas ¨¢reas requiere diferentes estrategias y recae sobre diferentes equipos. Para frenarlo, tenemos que coordinar a nuestros departamentos para que trabajen de forma conjunta y compartan las diferentes tecnolog¨ªas.
P. ?Los algoritmos pueden ser entrenados para detectar informaciones falsas?
La mayor¨ªa de las?publicaciones eliminadas?ha sido denunciada por usuarios
R. Todo lo que hacemos requiere la combinaci¨®n de tecnolog¨ªa y humanos. La pregunta es en qu¨¦ proporci¨®n. La tecnolog¨ªa es muy efectiva en detectar spam antes de que los usuarios nos reporten el da?o. Pero si miras el discurso de odio, la cantidad de contenidos que hemos eliminado en el primer trimestre de este a?o, unos 1,5 millones de publicaciones, la mayor¨ªa ha sido denunciado por usuarios. Nuestra tecnolog¨ªa no lo puede predecir para frenarlo, es un fen¨®meno m¨¢s nuevo que el spam. En cuanto a la informaci¨®n err¨®nea, el porcentaje es muy bajo. Hace cinco a?os yo misma pensaba que la tecnolog¨ªa avanzar¨ªa m¨¢s r¨¢pido. Aunque mucha gente cree que en Facebook confiamos plenamente en la tecnolog¨ªa, sabemos que no puede resolver todos los problemas. La tecnolog¨ªa puede decidir si una foto es violenta, pero para diferenciar una opini¨®n de una desinformaci¨®n publicada para manipular a la gente, ni siquiera los humanos son buenos detect¨¢ndolo.
P. ?Qu¨¦ acciones concretas est¨¢n llevando a cabo para luchar contra las noticias falsas?
R. Lo primero es reducir su distribuci¨®n. Una vez detectadas, nuestro algoritmo le da una menor puntuaci¨®n, y aparecen en menor medida en el news feed?[en espa?ol el llamado muro] de los usuarios. Para evaluar la efectividad de esta medida, hacemos test A y B con dos grupos de poblaci¨®n. Unos reciben ese tipo de contenidos y los otros no. Es la ¨²nica forma de medir el impacto, pero hay consecuencias y cuestiones ¨¦ticas detr¨¢s. Hay un motivo obvio por el que no queremos abusar de esas pruebas; estamos sometiendo a una parte de los usuarios a que consuman esos contenidos para medir la eficiencia del algoritmo. Por eso lo hacemos de forma limitada. De esos experimentos hemos concluido que las historias falsas se distribuyen en un 80 % menos gracias a una clasificaci¨®n peor.
P. Hace una semana comenz¨® la colaboraci¨®n de Facebook con investigadores externos para el an¨¢lisis de las m¨¦tricas internas. ?Cu¨¢l es su principal objetivo?
Los informes de los acad¨¦micos se publicar¨¢n aunque perjudiquen los intereses de Facebook
R. Queremos trabajar de forma m¨¢s cercana con acad¨¦micos para entender el impacto de las redes sociales en las elecciones, la democracia o las informaciones falsas. Dos investigadores de Stanford y Harvard est¨¢n liderando una comisi¨®n independiente con la que colaboramos y cuyos informes se publicar¨¢n aunque perjudique nuestros intereses. Ellos deciden qu¨¦ datos internos necesitan, hablamos de m¨¢s de un terabyte de informaci¨®n. Acad¨¦micos de todo el mundo pueden solicitar formar parte de esa comisi¨®n. No espero que en tres meses tengan la soluci¨®n definitiva, pero es un gran paso para nosotros.
P. Han anunciado que, por primera vez desde la creaci¨®n de Facebook, est¨¢n trabajando con organizaciones locales de Sri Lanka para detectar contenidos enga?osos que inciten a la violencia. ?Podr¨ªa explicar qu¨¦ f¨®rmula est¨¢n usando?
R. Hemos llevado a cabo acciones para reducir la distribuci¨®n de esos contenidos, como reducir su visibilidad, pero reconocemos que hay pa¨ªses donde la informaci¨®n enga?osa se est¨¢ usando para provocar agresiones f¨ªsicas. Por eso, hemos dado pasos con organizaciones y con expertos en esos pa¨ªses para analizar la forma correcta de remodelar nuestras pol¨ªticas. En Sri Lanka hemos eliminado por primera vez contenidos dentro de esta categor¨ªa. Hemos empezado por pa¨ªses en los que hemos visto que la desinformaci¨®n ha contribuido a agresiones f¨ªsicas o violencia fuera de la red. Sobre la metodolog¨ªa, estamos en pleno proceso de creaci¨®n y todav¨ªa no podemos compartirlo.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.
Sobre la firma
M¨¢s informaci¨®n
Archivado En
- Fake news
- Caso Cambridge Analytica
- Anal¨ªtica datos
- Manipulaci¨®n informativa
- Esc¨¢ndalos pol¨ªticos
- Elecciones EE.UU. 2016
- Bases datos
- Computaci¨®n
- Elecciones EE.UU.
- Redes sociales
- Usuarios internet
- Elecciones presidenciales
- Violencia
- Seguridad internet
- Elecciones
- Inform¨¢tica
- Sucesos
- Empresas
- Internet
- Medios comunicaci¨®n
- Econom¨ªa
- Problemas sociales
- Telecomunicaciones
- Comunicaci¨®n