May¨²sculas, exclamaciones, emojis, dibujos, im¨¢genes y v¨ªdeos delatan los bulos
Un equipo de Granada y el Imperial College desarrolla un programa para identificar noticias falsas
En torno a una cita casual en un bar salen algunos proyectos interesantes. De una reuni¨®n de amigos durante unas copas surgi¨® la misi¨®n israel¨ª a la Luna. Algo parecido ocurri¨® con una reciente investigaci¨®n sobre las caracter¨ªsticas de los bulos o fake news en Twitter, una de las principales redes sociales. A Miguel Molina, cient¨ªfico de datos que investigaba en el Imperial College de Londres, mientras conversaba con Juan G¨®mez Romero, del departamento de Ciencias de la Computaci¨®n de la Universidad de Granada, se le ocurri¨® desarrollar un sistema para detectar los bulos. Sus resultados preliminares detectan patrones de escritura, env¨ªo y comportamiento que abren la puerta a acabar con la plaga de la desinformaci¨®n. No obstante, Twitter advierte de las limitaciones de estudios similares.
¡°Lo primero fue acotar el campo de investigaci¨®n y definir fake news¡±, comenta Molina. ¡°De forma muy resumida, son mentiras intencionadas que buscan dinero o tr¨¢fico¡±, explica. Esa definici¨®n coincide con otras de este mismo campo que vinculan la proliferaci¨®n de noticias falsas a intentos de desestabilizaci¨®n, influencia y monetizaci¨®n.
¡°Un familiar o un amigo puede pensar que est¨¢ enviando informaci¨®n que cree que es verdadera, pero no tiene intenci¨®n en ello¡±, explica el investigador. Con esta premisa, el equipo, con la colaboraci¨®n del Imperial College, comenz¨® a recopilar, anotar y seleccionar tuits que respond¨ªan a su objeto de estudio.
La aplicaci¨®n de an¨¢lisis estad¨ªsticos y matem¨¢ticos sobre el material arroj¨® unas caracter¨ªsticas particulares en la redacci¨®n de las fake news: suelen incorporar may¨²sculas, exclamaciones, emojis (pictogramas), dibujos, im¨¢genes y v¨ªdeos. ¡°Buscan la sorpresa, llamar la atenci¨®n¡±, argumenta Molina.
Nights of horror in Catalonia. Young pro-independence female activist kidnapped by police in Tarragona pic.twitter.com/HTJ9sXX3cw
— Josep Llu¨ªs Alay ? (@josepalay) October 22, 2019
Tuit difundido el pasado 22 de octubre en el que, encabezado con la expresi¨®n "Noches de horror en Catalu?a", se atribuye a la polic¨ªa el "secuestro" (Privaci¨®n de libertad ambulatoria a una persona o grupo de personas, exigiendo, a cambio de su liberaci¨®n, el cumplimiento de alguna condici¨®n, como puede ser el pago de un rescatede) de una "joven". Se trata de la detenci¨®n de una mujer en Tarragona por los disturbios contra la sentencia del proc¨¦s. La magistrada del Juzgado de Instrucci¨®n 1 de Tarragona, en funciones de guardia, dict¨® orden de prisi¨®n provisional sin fianza para la acusada.
Este comportamiento pretende pescar en aguas de la polarizaci¨®n, es decir, ¡°funcionan porque los destinatarios est¨¢n dispuesto a creerse las noticias falsas¡±. Con esa complicidad entre emisor y receptor, la capacidad de penetraci¨®n y difusi¨®n se multiplica. Su env¨ªo masivo ya consigue el efecto deseado cuando la intenci¨®n es la influencia. Si, adem¨¢s, se quiere conseguir dinero, incluye enlaces para transferir tr¨¢fico a una determinada web con el fin de monetizar las visitas o atraer compras o pagos.
El trabajo, publicado en la revista internacional IEEE Access, analiza matem¨¢ticamente otras caracter¨ªsticas de los tuits, como los metadatos que identifican la cuenta, el autor, el n¨²mero de seguidores, favoritos, contactos o fecha de registro en la red social.
Todas estas caracter¨ªsticas, filtradas por un programa inform¨¢tico, han permitido determinar que las cuentas que comparten informaci¨®n err¨®nea se crean vinculadas a un episodio (disturbios en Catalu?a, elecciones, Brexit) concreto de la actualidad. De esta forma, adem¨¢s de tener m¨¢s opciones de captar la atenci¨®n al sumarse a temas que son tendencia, se benefician de un menor tiempo de los equipos de la red social y ajenos para que sean verificadas.
Tambi¨¦n han detectado que las cuentas de fake news usan caracteres extra?os tanto en su nombre como en su descripci¨®n, y tienen pocos seguidores, pero s¨ª siguen a muchos usuarios a los que intentan ganar con su adhesi¨®n y que sirvan de correa de transmisi¨®n. Este comportamiento, conocido como reciprocidad altruista, permite que ?la creaci¨®n de enlaces dirigidos a otros nodos impulse a los segundos a corresponder mediante la creaci¨®n de un v¨ªnculo con el primero?, seg¨²n la investigaci¨®n.
De esta forma, ya sean creados por robots o por personas, tanto en su creaci¨®n como en la estrategia de difusi¨®n buscan explotar sesgos humanos conocidos, como el de confirmaci¨®n (tendencia a favorecer, buscar y recordar la informaci¨®n que confirma las propias creencias) o como el mencionado de reciprocidad altruista.
El modelo desarrollado por Molina y G¨®mez con la colaboraci¨®n del Imperial College permite establecer una clasificaci¨®n num¨¦rica sobre las probabilidades de que el tuit analizado sea un bulo. De esta forma, se puede establecer un c¨®digo num¨¦rico (50% de ser fake news) o de colores (rojo o verde) para advertir al lector de que podr¨ªa encontrarse ante una mentira intencionada.
Los sistemas actuales de verificaci¨®n manual no son capaces de responder a todo el tr¨¢fico que se genera, circunstancia que aprovechan los propagadores de bulos para inundar las redes. Con un algoritmo matem¨¢tico, al menos se podr¨ªa preavisar a los usuarios de qu¨¦ tipo de informaci¨®n est¨¢n recibiendo y las probabilidades de que se trate de una falsedad, explica Molina.
Twitter advierte de las limitaciones de estos programas
La red social ha agradecido la investigaci¨®n y reitera que para proyectos similares ponen a disposici¨®n del p¨²blico de forma gratuita los datos de su interfaz de programaci¨®n de aplicaciones (API). "Ning¨²n otro servicio o plataforma hace esto", afirman fuentes de la compa?¨ªa.
Sin embargo, la red social recuerda que su director de Integridad, Yoel Roth, ya ha advertido de los defectos y fallos en la investigaci¨®n de bots o mensajes creados de forma autom¨¢tica. "Vemos una gran cantidad de investigaciones (...) que realizan evaluaciones exhaustivas de los comportamientos de la cuenta utilizando solo se?ales p¨²blicas, como la ubicaci¨®n (si se cita), el contenido de la cuenta, la frecuencia de tuits y las cuentas que siguen. Para ser claros: ninguno de estos indicadores es suficiente para determinar la atribuci¨®n definitivamente. Buscar cuentas que se parezcan a las divulgadas es un enfoque igualmente defectuoso, dado que muchos de los malos actores imitan las cuentas leg¨ªtimas para parecer cre¨ªbles. Este enfoque tambi¨¦n a menudo captura err¨®neamente las voces leg¨ªtimas que comparten un punto de vista pol¨ªtico particular con el que uno no est¨¢ de acuerdo".
"Antes de participar en este tipo de investigaci¨®n y hacer estas afirmaciones, se deben considerar las normas ¨¦ticas. Hacer lo contrario no promueve el conocimiento p¨²blico, sino que corre el riesgo de socavar profundamente la confianza en el debate p¨²blico y la conversaci¨®n", advierte Roth.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.