Votantes: no dej¨¦is que la desinformaci¨®n os quite el poder
La forma m¨¢s poderosa de apoyar un ecosistema informativo m¨¢s limpio y basado en la realidad no consiste en a?adir m¨¢s desorden y virulencia, sino en aprender a participar lenta y deliberadamente en internet
El a?o 2024 ha sido bautizado como el ¡°a?o de las elecciones¡±, en el que m¨¢s de dos mil millones de personas tendr¨¢n la oportunidad de votar en contiendas de gran trascendencia en todo el mundo. Los titulares alarmistas abundan. Es probable que le hayan dicho: ¡°La...
Reg¨ªstrate gratis para seguir leyendo
Si tienes cuenta en EL PA?S, puedes utilizarla para identificarte
El a?o 2024 ha sido bautizado como el ¡°a?o de las elecciones¡±, en el que m¨¢s de dos mil millones de personas tendr¨¢n la oportunidad de votar en contiendas de gran trascendencia en todo el mundo. Los titulares alarmistas abundan. Es probable que le hayan dicho: ¡°La inteligencia artificial impulsar¨¢ la desinformaci¨®n en 2024¡±. O, tal vez, una versi¨®n m¨¢s sombr¨ªa: ¡°La desinformaci¨®n ser¨¢ imparable durante el a?o de las elecciones¡±. Ninguna de las dos afirmaciones es del todo falsa, pero ambas niegan a los votantes cualquier capacidad de acci¨®n. Y en una ¨¦poca en la que se miente por poder o por lucro, es esencial que protejamos y hagamos valer esa capacidad de acci¨®n cuando nos dirijamos a las urnas.
Llevo casi una d¨¦cada estudiando la desinformaci¨®n. Mi primer trabajo en Washington consisti¨® en colaborar en programas de apoyo a la democracia en Rusia y en Bielorrusia, y vi c¨®mo el Kremlin ensayaba con sus ciudadanos las t¨¢cticas que m¨¢s tarde emplear¨ªa en Estados Unidos. Las explor¨® a¨²n m¨¢s durante su primera invasi¨®n de Ucrania. Fui asesora del Ministerio de Asuntos Exteriores ucranio en 2016-2017, y pude observar desde Kiev c¨®mo mi propio pa¨ªs se estremec¨ªa en respuesta a las revelaciones de que Mosc¨² se hab¨ªa injerido en nuestro proceso democr¨¢tico; a mis compa?eros en Ucrania no les sorprendi¨®. Desde entonces, he dedicado mi trabajo a exponer en Estados Unidos las lecciones que nuestros aliados han aprendido por las malas. Una lecci¨®n que siempre ha persistido es que debemos ayudar a la gente a aprender a manejarse en un entorno de informaci¨®n cada vez m¨¢s contaminado, confuso y acelerado. Me entristece decir que no hemos avanzado mucho en este sentido.
Con demasiada frecuencia recurrimos a soluciones t¨¦cnicas para resolver problemas intr¨ªnsecamente humanos. Tomemos como ejemplo la reciente robollamada manipulada de Joe Biden antes de las primarias de New Hampshire. Alguien utiliz¨® inteligencia artificial (IA) para generar un audio falso del presidente de Estados Unidos instando a los votantes dem¨®cratas a que no acudieran a las primarias del partido en el estado el pasado enero; si lo hac¨ªan, ayudar¨ªan a los republicanos, les dec¨ªa el Biden impostor. (No solo era falsa la voz de Biden, sino tambi¨¦n el pron¨®stico. En New Hampshire, los votantes dem¨®cratas y republicanos votan por separado, por lo que votar por los dem¨®cratas no afectar¨ªa a los republicanos). Pocas semanas despu¨¦s de que saliera a la luz la robollamada, la Comisi¨®n Federal de Comunicaciones prohibi¨® el uso de voces generadas por IA en las llamadas automatizadas, una acci¨®n poco habitual en la pol¨ªtica estadounidense por su rapidez y contundencia.
Pero el audio, las fotos y los v¨ªdeos generados por inteligencia artificial tienen todav¨ªa muchos vectores m¨¢s para penetrar en la esfera informativa de Estados Unidos en estas elecciones. Podr¨ªan enviarse de usuario a usuario o en grupos cerrados de Facebook, WhatsApp o Telegram. Y all¨ª ser¨¢ mucho m¨¢s dif¨ªcil rastrear la procedencia y distribuci¨®n de estas falsedades, por no hablar ya de que ser¨¢ m¨¢s peliagudo tomar medidas en¨¦rgicas contra ellas.
Por eso es fundamental que las personas rechacen el consumo pasivo de informaci¨®n que se ha convertido en end¨¦mico de la era digital y empiecen a pensar de forma cr¨ªtica sobre el contexto y el contenido de la informaci¨®n que consumen. En el caso de la robollamada generada por IA, no me refiero simplemente a escuchar las caracter¨ªsticas de los archivos de voz generados por IA, que son dif¨ªciles de detectar para la mayor¨ªa de las personas. Me refiero tambi¨¦n a pensar en las circunstancias que rodean la llamada. ?El Joe Biden amante de la democracia que conocemos instar¨ªa realmente a los votantes a quedarse en casa bajo ning¨²n concepto? ?Tienen sentido siquiera las alegaciones de la llamada automatizada sobre ¡°ayudar a los republicanos¡±?
M¨¢s all¨¢ de ese incidente concreto, los votantes deben considerar c¨®mo les hace sentirse la informaci¨®n que consumen. Sabemos que las noticias de las redes sociales juegan con las emociones: cuanto m¨¢s enfurece el contenido, m¨¢s atractivo resulta y m¨¢s posibilidades tiene de convertirse en viral. As¨ª que cuando nos sintamos alterados por algo que veamos en internet, deber¨ªamos alejarnos de nuestros dispositivos. Demos un paseo. Tranquilic¨¦monos. Si, al cabo de unos minutos, seguimos pensando en el contenido, hay algunas cosas sencillas que podemos hacer para evaluar la manera de proceder.
En primer lugar, consideremos la fuente. ?Es conocido el que sube la informaci¨®n o el autor? ?Es una organizaci¨®n o un particular? Si se trata de un particular, ?parece leg¨ªtima su cuenta? ?Se ha creado recientemente? ?Tiene amigos o seguidores? ?Publica de una forma que parece humana y org¨¢nica? En segundo lugar, si estamos viendo informaci¨®n de inter¨¦s period¨ªstico, comprobemos si otros medios conocidos de todo el espectro pol¨ªtico se hacen eco de ella. En tercer lugar, si se trata de una imagen, el uso de una herramienta de b¨²squeda inversa de im¨¢genes, que nos indica cu¨¢ndo se public¨® por primera vez una imagen en internet, puede darnos una pista sobre si ha sido atribuida err¨®neamente, editada de forma enga?osa o incluso manipulada mediante IA.
Esta lista de preguntas no es exhaustiva ni infalible, pero les ayudar¨¢ a hacer algo importante mientras navegan: reducir la velocidad. El entorno informativo actual no solo est¨¢ contaminado, sino que se mueve con rapidez. Hemos visto a prestigiosos medios de comunicaci¨®n cometer errores garrafales en sus informaciones y atribuciones en la incesante lucha por los clics y las visitas, y sabemos que los desinformadores comparten contenidos alarmantes o sensacionalistas para obtener poder o beneficios.
No tenemos que seguirles el juego. En este ¡°a?o de elecciones¡±, la forma m¨¢s poderosa de apoyar un ecosistema informativo m¨¢s limpio y basado en la realidad no consiste en a?adir m¨¢s desorden y virulencia, sino en aprender a participar lenta y deliberadamente en internet, y en recompensar a los pol¨ªticos que abordan sus trabajos y campa?as con la misma ¨¦tica.
Nina Jankowicz es experta en desinformaci¨®n, democratizaci¨®n y odio digital, y vicepresidenta para Estados Unidos del Centro para la Resiliencia de la Informaci¨®n. Tambi¨¦n es autora dos influyentes libros: uno sobre desinformaci¨®n (How to lose the information war, o C¨®mo perder la guerra de la informaci¨®n) y otro sobre el ciberacoso machista (How to be a woman online, C¨®mo ser mujer en internet).