B4kunAs del k0b1d: as¨ª se camufla la desinformaci¨®n sobre la pandemia en las principales redes sociales
Una investigaci¨®n centrada en publicaciones en espa?ol desvela c¨®mo palabras ligeramente modificadas enga?an a los sistemas de moderaci¨®n de Facebook, Instagram, Twitter y Youtube
¡°No es v4kuna, es un experimento de horror en humanos. Es una guerra despierten¡±, proclama un usuario de Facebook junto a la publicaci¨®n de un v¨ªdeo que lleva acumuladas al menos 13.700 reproducciones. La captura de pantalla, tomada por los investigadores la organizaci¨®n sin ¨¢nimo de lucro europea de EU DisinfoLab el pasado mes de octubre, ni siquiera lleva la informaci¨®n complementaria que la red social suele a?adir a las publicaciones que tratan sobre la pandemia. La clave de su supervivencia es el camuflaje de la palabra vacuna, q...
¡°No es v4kuna, es un experimento de horror en humanos. Es una guerra despierten¡±, proclama un usuario de Facebook junto a la publicaci¨®n de un v¨ªdeo que lleva acumuladas al menos 13.700 reproducciones. La captura de pantalla, tomada por los investigadores la organizaci¨®n sin ¨¢nimo de lucro europea de EU DisinfoLab el pasado mes de octubre, ni siquiera lleva la informaci¨®n complementaria que la red social suele a?adir a las publicaciones que tratan sobre la pandemia. La clave de su supervivencia es el camuflaje de la palabra vacuna, que al cambiar la a por un 4 y la c por una k, logra evadir al sistema de verificaci¨®n de contenidos con el que Facebook trata de combatir la desinformaci¨®n.
Esta breve publicaci¨®n es solo una muestra de c¨®mo quienes se dedican a distribuir bulos en las redes sociales sortean los ya insuficientes controles implementados por las propias plataformas. EU DisinfoLab tambi¨¦n ha hallado ejemplos de estas pr¨¢cticas en publicaciones en espa?ol de Instagram, Twitter y Youtube. ¡°Monitoreamos a diario el panorama desinformativo mundial, incluyendo por supuesto el espa?ol. Eso nos pone sobre la pista de muchas cosas¡±, explica Ana Romero-Vicente, autora del estudio. ¡°Cuando se hizo este estudio [en octubre], los casos de palabras camufladas no verificadas eran numerosos, no era algo aislado¡±. De hecho, todos los casos que identificaron siguen colgados en sus respectivas redes sociales.
La t¨¦cnica que emplean es sencilla: basta cambiar algunos caracteres para que la palabra siga siendo reconocible para un lector humano pero se convierta en un galimat¨ªas a ojos de las m¨¢quinas. Y no es tan novedosa, en el mundo del cibercrimen es com¨²n encontrar estos trucos en las direcciones de p¨¢ginas web que intentan suplantar a entidades reales. ¡°Las palabras camufladas tambi¨¦n se usan para difundir otras narrativas¡±, se?ala el estudio, que cita como ejemplo un v¨ªdeo pro-Qanon que denuncia una operaci¨®n contra la p3d0fi1i4 ¨Cpedofilia¨C 4dr3n0cr0m0 ¨Cadrenocromo¨C, dos elementos centrales en las teor¨ªas de la conspiraci¨®n que alienta este colectivo.
En l¨ªneas generales, la moderaci¨®n de contenidos se apoya en las denuncias de usuarios o bien en los barridos hechos por sistemas de inteligencia artificial que identifican contenidos potencialmente problem¨¢ticos. En el siguiente paso se encuentran equipos de moderadores humanos que tendr¨ªan que dirimir los casos donde entran en juego m¨¢s matices de los que puede detectar una m¨¢quina.
Seg¨²n explica Mukund Srinath, investigador especializado en procesamiento del lenguaje natural y extracci¨®n de informaci¨®n, la detecci¨®n automatizada de este tipo de t¨¦rminos puede basarse en medidas de proximidad: ¡°Con estas t¨¦cnicas, se pueden extraer palabras similares. Por ejemplo, la palabra cobid tiene una distancia de edici¨®n de 1 de la palabra covid¡±. Otra opci¨®n es recurrir a modelos de inteligencia artificial entrenados con ejemplos como los que ha encontrado EU DisinfoLab para reconocer publicaciones con frases similares. ¡°Esto desde luego es menos complicado cuando uno tiene los recursos de Facebook y Twitter, porque facilita recopilar grandes cantidades de datos en el contexto correcto¡±, razona Srinath.
Glosario camuflado
Aunque los investigadores se han centrado en los t¨¦rminos vacuna, covid y pandemia, han encontrado tambi¨¦n referencias camufladas a otras palabras clave vinculadas al mismo tema, como virus, grafeno, mascarillas o lvermectina. En estos casos el maquillaje tambi¨¦n se empleaba para escapar de los sistemas de moderaci¨®n y difundir desinformaci¨®n.
En todos los textos se encontraron cinco estrategias recurrentes: la sustituci¨®n de vocales por n¨²meros (p4nd3m14 en lugar de pandemia), el uso de consonantes alternativas que en espa?ol suenan igual o de forma muy similar (cobit en lugar de covid), el cambio en el orden de las s¨ªlabas (nacuva en lugar de vacuna), la inserci¨®n de signos de puntuaci¨®n entre las letras (v.a.c.u.n.a.), o la utilizaci¨®n de palabras con significados pr¨®ximos (bicho 19 en lugar de covid-19). Es una t¨¢ctica simple pero efectiva: cuando los contenidos no pueden ser detectados, tampoco pueden ser retirados ni etiquetados.
En las redes m¨¢s centradas en la imagen y el sonido, como Youtube e Instagram estas t¨¦cnicas aparecen adaptadas al formato de los contenidos: como textos insertados en fotos o v¨ªdeos en los que se silencia una palabra pronunciada por el hablante pero se introduce por escrito como si fuera un subt¨ªtulo.
?Qu¨¦ historias cuentan estas palabras camufladas? De acuerdo con los investigadores, las narrativas principales se centran en difundir proclamas antivacunas, mensajes sobre conspiraciones y contenidos negacionistas. El lado bueno de esta tendencia es que los posts que emplean estas t¨¢cticas no son, por ahora, excesivamente virales. ¡°La detecci¨®n temprana que hacemos con este estudio pretende frenar la expansi¨®n de este m¨¦todo desinformador apelando a las plataformas de redes sociales a que mejoren su sistema de verificaci¨®n de contenido. Con este estudio se demuestra, una vez m¨¢s, que las pol¨ªticas de moderaci¨®n de contenido de las redes sociales tradicionales deben evolucionar constantemente para adaptarse a las nuevas amenazas¡±, explica Romero-Vicente.
La existencia de estas t¨¢cticas no solo demuestra que quienes se dedican a difundir informaci¨®n siguen buscando v¨ªas para extender sus mensajes en las plataformas m¨¢s usadas. ¡°Adem¨¢s de escapar de la moderaci¨®n, el uso del camuflaje de palabras refuerza la identidad de grupo, la idea de ser parte de una comunidad que comparte el mismo c¨®digo secreto y se enfrenta al poder de las grandes empresas tecnol¨®gicas¡±.
Para controlar el problema los investigadores de EU DisinfoLab, prescriben el uso de mejores sistemas de reconocimiento ¨®ptico de caracteres que afinen la identificaci¨®n de textos inapropiados insertados en fotos y v¨ªdeos, as¨ª como mejorar las t¨¦cnicas de detecci¨®n teniendo en cuenta las dificultades actuales. ¡°Las plataformas no son transparentes en absoluto sobre las herramientas que utilizan para conducir la moderaci¨®n de contenido y desconocemos qu¨¦ tan eficientes son. La pr¨®xima regulaci¨®n de la UE tendr¨¢ que obligar a las plataformas a ser transparentes sobre por qu¨¦ act¨²an, pero tambi¨¦n sobre por qu¨¦ no act¨²an sobre la desinformaci¨®n¡±.
Puedes seguir a EL PA?S TECNOLOG?A en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.