Los bulos siguen unos patrones concretos¡ y los algoritmos ya los rastrean
La inteligencia artificial mejora su precisi¨®n a la hora de detectar noticias falsas, aunque la sofisticaci¨®n de este contenido dificulta su labor
Lo falso y lo veraz siguen unos patrones determinados. Algo as¨ª como un c¨®digo un¨ªvoco. El problema es que son tan complejos, en particular en las fake news, que hasta puede confundirse lo falso con lo real. Cuesta cada vez m¨¢s discernir entre ambos. Seg¨²n un informe de la consultora Gartner, en 2022 consumiremos m¨¢s bulos que informaci¨®n verdadera. Sin embargo, algunos algoritmos ya han conseguido rastrear esta especie de f¨®rmula m¨¢gica y determinar ciertas cara...
Lo falso y lo veraz siguen unos patrones determinados. Algo as¨ª como un c¨®digo un¨ªvoco. El problema es que son tan complejos, en particular en las fake news, que hasta puede confundirse lo falso con lo real. Cuesta cada vez m¨¢s discernir entre ambos. Seg¨²n un informe de la consultora Gartner, en 2022 consumiremos m¨¢s bulos que informaci¨®n verdadera. Sin embargo, algunos algoritmos ya han conseguido rastrear esta especie de f¨®rmula m¨¢gica y determinar ciertas caracter¨ªsticas. Es el caso de una investigaci¨®n realizada por la Universidad de Granada y el Imperial College de Londres, que ha conseguido que la inteligencia artificial entienda las emociones que desprende el lenguaje o el impacto sociol¨®gico que tiene un tuit.
Juan G¨®mez, integrante de la investigaci¨®n y profesor de Ciencias de la Computaci¨®n en la Universidad de Granada, reconoce que la complejidad de los mensajes dificulta hallar estas estructuras de veracidad y falsedad. ¡°Hay recursos visuales simples y llamativos, como los emoticonos y las may¨²sculas, que son pistas relevantes para identificar las fake news; pero su ingenier¨ªa tambi¨¦n evoluciona. Es decir, los datos de entrenamiento que usamos en un determinado contexto ahora no pueden aplicarse¡±. Al igual que las capacidades de la inteligencia artificial evolucionan, la maquinaria de los bulos lo hace incluso m¨¢s r¨¢pidamente.
Ante esta situaci¨®n, Claire Wardle, directora de investigaci¨®n de FirstDraft, huye de un ¨²nico concepto de desinformaci¨®n. En su opini¨®n, por lo menos nos encontramos delante de siete escenarios diferentes, que van desde la noticia inventada o manipulada hasta la s¨¢tira ¡ªno tiene intenci¨®n de da?ar, pero cuenta con un potencial elevado de enga?o¡ª. ¡°Si vamos a atajar realmente el problema en el que nos encontramos, debemos comprender su gravedad y debemos entender contra lo que estamos luchando¡±, asegura. Esta es la batalla interna que libran el aprendizaje autom¨¢tico y los programadores que los entrenan. Aportar informaci¨®n y variables m¨¢s profundas para que lleguen a ese c¨®digo universal de la mentira.
Metadatos, contenido, organizaci¨®n tem¨¢tica, contexto y coherencia son algunas de las se?ales que Ricardo Baeza-Yates, director de Ciencia de Datos en Northeastern University y catedr¨¢tico de Inform¨¢tica de la Universitat Pompeu Fabra, ha incorporado a la algor¨ªtmica para prevenir la desinformaci¨®n. Intenta que el machine learning aprenda si un texto respeta la congruencia sem¨¢ntica. Si existen los hechos mencionados. O si se da una relaci¨®n l¨®gica en su conjunto. No basta solo con rastrear bots y la autor¨ªa. Otra cuesti¨®n es su precisi¨®n. ¡°Podemos permitirnos entre un 60% y 80%. Creo que es un porcentaje razonable. Si le preguntas a 20 personas diferentes qu¨¦ noticias son m¨¢s cre¨ªbles, ni entre ellos habr¨¢ unanimidad¡±, zanja.
Los investigadores insisten en la inconveniencia de depositar ¨²nicamente en la tecnolog¨ªa la responsabilidad de la verificaci¨®n. Su ventaja principal es que cuentan con una mayor capacidad de detecci¨®n. Baeza-Yates pone un ejemplo elemental: el c¨®digo html. ¡°Es una se?al valiosa para identificar esas estructuras falsas y que no est¨¢ precisamente al alcance de todas las personas¡±. Incluso el exceso de coherencia representa un marcador determinante; y estos algoritmos en seguida dan la voz de alarma. Como explica, el ruido y la incoherencia son caracter¨ªsticas propias del ser humano.
La era del aprendizaje profundo
Un estudio de MIT Initiative on the Digital Economy, que hab¨ªa analizado unos 126.000 hilos de Twitter, determin¨® que la verdad tarda aproximadamente seis veces m¨¢s que la mentira en alcanzar a 1.500 personas. Se difunde m¨¢s lejos y m¨¢s r¨¢pidamente. Para mejorar la capacidad de rastreo de las fake news de los algoritmos, al menos as¨ª lo interpreta G¨®mez, ha llegado el momento de que el aprendizaje profundo brille. ¡°Puede tener la llave de algunas estructuras m¨¢s s¨®lidas. Nosotros nos hemos dado cuenta de que las t¨¦cnicas de deep learning, como las que procesan el lenguaje natural, mejoran las estad¨ªsticas¡±.
Este escenario puede estar m¨¢s cerca de lo previsto. Hace no tanto, como unos 10 a?os, el spam colapsaba las bandejas de entrada y ahora est¨¢ m¨¢s controlado gracias al perfeccionamiento de los filtros, que han evolucionado de la mano del deep learning. El problema, pese a que la inteligencia artificial mejore su efectividad antibulos, es que los creadores de esta informaci¨®n seguir¨¢n refinando la t¨¦cnica. En palabras de Baeza-Yates, va a ser como los virus inform¨¢ticos, que a?o tras a?o aparece uno nuevo y desconocemos c¨®mo tratarlo. ¡°Se trata de una batalla eterna entre malos y buenos. Como con la evasi¨®n fiscal. Siempre hay un subterfugio por el que la desinformaci¨®n terminar¨¢ col¨¢ndose¡±.
El margen de mejora de los algoritmos es muy amplio, aun con todos los avances logrados recientemente. Un margen algo estrecho si atendemos a las consideraciones de Baeza-Yates. Su nivel de acierto depende de los datos, con lo que alguien ha de ser mejor que la m¨¢quina para ense?arle. ¡°Si somos incapaces de encontrar art¨ªculos m¨¢s complejos, no podremos entrenar al algoritmo para que detecte bulos m¨¢s y m¨¢s sofisticados¡±, concluye.
La propia evoluci¨®n de las fake news tambi¨¦n reduce el futuro que afronta el machine learning. G¨®mez destaca que la idea inicial con la que se creaban part¨ªa de cambiar la opini¨®n sobre un hecho. Una vez que costaba, el salto ha sido hacia mantener en alerta a una comunidad. Fidelizar a los simpatizantes. ¡°Muchos textos son de consumo propio. ?Esto c¨®mo lo controlamos? ?C¨®mo logra aprenderlo la inteligencia artificial?¡±, se pregunta. Nadie pretende que la tecnolog¨ªa sea la ¨²nica responsable de diferenciar entre falso y ver¨ªdico, pero s¨ª una herramienta que ayude a decidir. Poco a poco se deja enga?ar con menos frecuencia, por mucho que se lo pongamos dif¨ªcil.
Puedes seguir a EL PA?S TECNOLOG?A RETINA en Facebook, Twitter, Instagram o suscribirte aqu¨ª a nuestra Newsletter.