C¨®mo puede la inteligencia artificial detectar y crear noticias falsas
Sistemas como los algoritmos de aprendizaje autom¨¢tico pueden evaluar si un texto o un titular coinciden con el contenido real de un art¨ªculo
Cuando Mark Zuckerberg le dijo al Congreso de Estados Unidos que Facebook iba a utilizar la inteligencia artificial para detectar las noticias falsas publicadas en esta red social, no dio muchos detalles de a qu¨¦ se refer¨ªa. Dado que trabajo en an¨¢lisis de imagen y v¨ªdeo, pienso que la empresa deber¨ªa tener cuidado. A pesar de sus posibles fallos b¨¢sicos, la IA puede ser una herramienta ¨²til para detectar propaganda en la red; pero tambi¨¦n puede ser asombrosamente buena para crear material enga?oso. No podr¨¢n creer lo que Obama dice en este v¨ªdeo. Sin duda da la impresi¨®n de que Barack Obama dice cosas que probablemente nunca dir¨ªa.
Los investigadores ya saben que las noticias falsas en Internet se difunden m¨¢s ampliamente y con mucha m¨¢s rapidez que las verdaderas. A trav¨¦s de mi investigaci¨®n he llegado tambi¨¦n a la conclusi¨®n de que las entradas con informaci¨®n m¨¦dica falsa reciben m¨¢s visitas y calificaciones de ¡°me gusta¡± que las que ofrecen contenido m¨¦dico fiable. En el mundo digital, donde los usuarios tienen una atenci¨®n limitada y est¨¢n saturados de opciones de contenido, a menudo da la impresi¨®n de que la informaci¨®n falsa les resulta m¨¢s atractiva o interesante.
El problema empeora: de aqu¨ª a 2022, los habitantes de los pa¨ªses desarrollados podr¨ªan encontrar m¨¢s noticias falsas que informaci¨®n real. Esto podr¨ªa causar un fen¨®meno que los investigadores denominan ¡°v¨¦rtigo de la realidad¡±, en el que los ordenadores ser¨¢n capaces de generar un contenido tan convincente que a los usuarios normales les resultar¨¢ dif¨ªcil saber qu¨¦ es cierto y qu¨¦ no lo es.
Detectar la falsedad
Los algoritmos de aprendizaje autom¨¢tico, un tipo de IA, combaten desde hace d¨¦cadas el spam en los mensajes electr¨®nicos, analizando el texto de los mensajes y determinando qu¨¦ probabilidad hay de que un mensaje determinado sea una comunicaci¨®n real de una persona concreta, o se trate de publicidad de productos farmac¨¦uticos o de una reclamaci¨®n de una fortuna perdida hace mucho.
Bas¨¢ndose en este tipo de an¨¢lisis de texto en la lucha contra el spam, los sistemas de IA pueden evaluar si un texto o un titular coinciden con el contenido real de un art¨ªculo que alguien comparte en Internet. Otro m¨¦todo podr¨ªa examinar art¨ªculos similares y ver si otros medios informativos presentan datos distintos. Sistemas similares pueden detectar cuentas y p¨¢ginas espec¨ªficas que difunden noticias falsas.
Un ciclo sin fin
Sin embargo, esos m¨¦todos se basan en la suposici¨®n de que quienes difunden las noticias falsas no cambian de sistema. A menudo cambian de t¨¢ctica, manipulando el contenido de las entradas falsas para hacer que parezcan m¨¢s aut¨¦nticas.
El uso de la IA para evaluar la informaci¨®n puede tambi¨¦n poner de manifiesto ¨Cy amplificar¨C determinados sesgos de la sociedad relacionados con el sexo, la procedencia racial o los estereotipos locales. Puede tener tambi¨¦n consecuencias pol¨ªticas, con el riesgo en potencia de restringir la expresi¨®n de determinados puntos de vista. Por ejemplo, YouTube ha eliminado la publicidad de algunos tipos de canales de v¨ªdeo, lo cual cuesta dinero a sus creadores.
El contexto es tambi¨¦n clave. El significado de las palabras puede variar con el tiempo. Y la misma palabra puede significar cosas distintas en ambientes progresistas o conservadores. Por ejemplo, una entrada con los t¨¦rminos ¡°WikiLeaks¡± y ¡°DNC¡± (Comit¨¦ Nacional Dem¨®crata) en una p¨¢gina progresista posiblemente sea una noticia, mientras que en una p¨¢gina conservadora podr¨ªa hacer referencia a un conjunto concreto de teor¨ªas de la conspiraci¨®n.
El uso de la IA para crear noticias falsas
Sin embargo, el mayor reto de usar la IA para detectar noticias falsas es que sit¨²a la tecnolog¨ªa en una carrera de armamentos contra ella misma. Los sistemas de aprendizaje autom¨¢tico est¨¢n demostrando ya su espeluznante capacidad para crear lo que se denomina deepfakes [falsificaciones profundas]: fotos y videos que sustituyen de manera realista el rostro de una persona por el de otra para que parezca, por ejemplo, que un famoso ha sido fotografiado en una pose sugerente o que una figura p¨²blica est¨¢ diciendo cosas que en realidad nunca dir¨ªa. Hasta hay aplicaciones de tel¨¦fonos inteligentes capaces de este tipo de sustituci¨®n, lo que pone esta tecnolog¨ªa al alcance pr¨¢cticamente de todos, aunque sin la capacidad de edici¨®n de v¨ªdeo propia de Hollywood.
Los investigadores se est¨¢n preparando para utilizar la IA con el fin de detectar estas falsificaciones creadas mediante IA. Por ejemplo, las t¨¦cnicas de magnificaci¨®n de imagen pueden detectar cambios en el pulso humano que determinar¨ªan si una persona incluida en un video es real o est¨¢ generada por ordenador. Pero tanto los falsificadores como los detectores de falsificaciones mejorar¨¢n. Algunas falsificaciones podr¨ªan volverse tan complejas que resultar¨ªa muy dif¨ªcil refutarlas o rechazarlas, a diferencia de anteriores generaciones de falsificaciones que empleaban un lenguaje simple para afirmar cosas f¨¢cilmente refutables.
La verdadera clave est¨¢ en la inteligencia humana
La mejor forma de combatir la difusi¨®n de noticias falsas podr¨ªa ser acudir a las personas. Las consecuencias sociales de las noticias falsas ¨Cmayor polarizaci¨®n pol¨ªtica, aumento del partidismo, erosi¨®n de la confianza en los medios de comunicaci¨®n convencionales y en el Gobierno¨C son significativas. Si m¨¢s personas supieran lo que est¨¢ en juego, quiz¨¢ ser¨ªan m¨¢s precavidas con la informaci¨®n, en especial si tiene una base emocional, porque ese es un modo eficaz de llamar la atenci¨®n de la ciudadan¨ªa.
Cuando alguien ve una entrada indignante, es mejor que investigue la informaci¨®n, en lugar de compartirla de inmediato. El hecho de compartirla tambi¨¦n le da credibilidad a una entrada: cuando otras personas la ven, registran que ha sido compartida por alguien a quien conocen y en quien presumiblemente conf¨ªan al menos un poco, y es menos probable que se fijen en que la fuente original es cuestionable.
Redes sociales como YouTube o Facebook podr¨ªan decidir voluntariamente etiquetar su contenido, mostrando claramente si un art¨ªculo que supuestamente constituye una noticia est¨¢ verificado por una fuente acreditada. Zuckerberg le dijo al Congreso estadounidense que quiere movilizar a la ¡°comunidad¡± de usuarios de Facebook para dirigir los algoritmos de su empresa. Facebook podr¨ªa solicitar una colaboraci¨®n abierta en los esfuerzos de verificaci¨®n. Wikipedia ofrece tambi¨¦n un modelo de dedicados voluntarios que hacen un seguimiento de la informaci¨®n y la verifican.
Facebook podr¨ªa utilizar sus alianzas con medios informativos y voluntarios para adiestrar a la IA, afinando constantemente el sistema para que pueda responder a los cambios de temas y t¨¢cticas empleados por los propagandistas. As¨ª no se abarcar¨¢n todas las noticias publicadas en Internet, pero ser¨ªa m¨¢s f¨¢cil que una cantidad mayor de personas distinguiese la verdad de la mentira. Eso podr¨ªa reducir las posibilidades de que historias ficticias o enga?osas se hiciesen populares en la Red.
Sin duda, las personas que tienen cierta exposici¨®n a noticias reales distinguen mejor la informaci¨®n real de la falsa. La clave est¨¢ en asegurarse de que al menos parte de lo que se ve en Internet sea de hecho cierto.
Anjana Susarla es profesora asociada de Sistemas de la Informaci¨®n, Universidad Estatal de Michigan
Cl¨¢usula de divulgaci¨®n
Anjana Susarla no trabaja para ninguna empresa u organizaci¨®n que pueda beneficiarse de este art¨ªculo, no las asesora, no posee acciones en ellas ni recibe financiaci¨®n. Tampoco declara otras vinculaciones relevantes aparte del cargo acad¨¦mico mencionado.
Este art¨ªculo fue publicado originalmente en ingl¨¦s en la web The Conversation?.
Traducci¨®n de New Clips.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.