Robollamadas y otros bulos: el impacto de la inteligencia artificial en las campa?as electorales
En un momento en el que es posible generar v¨ªdeos, fotograf¨ªas o incluso llamadas con voz falsas que alcanzan difusi¨®n masiva en minutos, la confianza en las instituciones se resiente. Y mientras unos desinforman, otros luchan para desmentir la desinformaci¨®n. De la India a Estados Unidos, la IA irrumpe en las elecciones de medio mundo
En su ¨²ltimo Informe de Riesgos Globales, el Foro Econ¨®mico Mundial concluy¨® que la desinformaci¨®n era la mayor amenaza para los pr¨®ximos dos a?os, por encima de la guerra, la migraci¨®n y la crisis clim¨¢tica. Dos mil millones de personas acuden a las urnas en el a?o de los mensajes automatizados con voces clonadas, v¨ªdeos de discursos que nunca existieron, pornograf¨ªa sint¨¦tica no consentida e informativos realistas generados por inteligencia artificial. En todos los lugares del mundo hay agencias usando ChatGPT para comprender a grupos cada vez m¨¢s peque?os de votantes, generar discursos y material de campa?a, traducirlo a muchos idiomas y crear avatares virtuales de los canditatos para que puedan chatear con todo el mundo y estar en todas partes a la vez. La pregunta es qu¨¦ est¨¢ pasando por debajo y c¨®mo nos podemos preparar.
¡°La preocupaci¨®n m¨¢s obvia es que aparezca un deepfake de un candidato o del presidente de Estados Unidos haciendo algo que no es verdad, pero creo que es el caso menos preocupante¡±, explicaba recientemente Alex Stamos en una entrevista con CNBC. El director del Observatorio de Internet de la Universidad de Stanford piensa que ¡°un contenido falso que se mueve entre grupos de chat, llamadas telef¨®nicas o mensajes individuales es mucho m¨¢s peligroso¡±.
Las fotos de Donald Trump rodeado de votantes afroamericanos o de una explosi¨®n frente al Pent¨¢gono pueden tener un impacto emocional inmediato, pero son f¨¢ciles de desmentir. Tanto pol¨ªticos como edificios est¨¢n vigilados por su agenda p¨²blica, casi siempre sabemos d¨®nde est¨¢n y con qui¨¦n. Pero la voz del pol¨ªtico eslovaco Michal ?ime?ka presumiendo de haber ama?ado las elecciones, o del l¨ªder de los laboristas brit¨¢nicos, sir Keir Starmer, abusando verbalmente de un miembro de su equipo, ofrecen m¨¢s resistencia a la verificaci¨®n. El escenario m¨¢s peligroso se produce cuando esos contenidos se propagan de forma masiva pero clandestina por robollamada, grupos privados en redes sociales y servicios de mensajer¨ªa protegidos por criptograf¨ªa como Telegram o WhatsApp. No podemos verificar aquello que no vemos a tiempo. Por ejemplo, durante la jornada de reflexi¨®n.
El ejemplo perfecto lleg¨® en las primarias de EE UU, cuando una robollamada con la voz de Joe Biden apel¨® a los dem¨®cratas del Estado de New Hampshire a que no votaran en las primarias. ¡°Votar este martes solo facilitar¨ªa a los republicanos su misi¨®n para elegir nuevamente a Donald Trump. Tu voto marcar¨¢ la diferencia en noviembre, no este martes¡±, dec¨ªa la grabaci¨®n. Una campa?a de disuasi¨®n o supresi¨®n de voto con informaci¨®n falsa sobre el d¨ªa, el lugar o la forma del voto pueden difundirse r¨¢pidamente y alcanzar a una audiencia masiva antes de alertar a las autoridades o ser desmentida por los medios de comunicaci¨®n. Otra campa?a sobre el robo de unos boletos o la existencia de un cami¨®n sospechoso puede desatar la violencia en los lugares m¨¢s tensionados, antes de ser desmentido.
Un mes de jornada electoral
La India parec¨ªa el escenario m¨¢s propicio para inaugurar ese apocalipsis, con sus casi 1.000 millones de votantes y 850 millones conectados a Internet, con WhatsApp como infraestructura principal de comunicaci¨®n. Su primer ministro, Narendra Modi, practica el arte de la propaganda, encarcela periodistas y mantiene una cruda campa?a de odio contra la minor¨ªa musulmana. La India ocupa el puesto 159 en el ¨ªndice mundial de la libertad de prensa. Un estudio centrado en contenidos virales en WhatsApp durante las elecciones regionales del verano pasado mostraba una incidencia residual de contenidos sint¨¦ticos, aunque advert¨ªa de su probable explosi¨®n futura. Los m¨¢s compartidos eran im¨¢genes falsas de nuevas infraestructuras de transportes o religiosas (templos y estaciones), propaganda supremacista hind¨² e ilustraciones de santos hind¨²es musculosos haciendo declaraciones ofensivas contra los musulmanes. Los investigadores Kiran Garimella y Simon Chauchard advirtieron que no deb¨ªamos infravalorar su influencia solo porque parecieran animaciones. ¡°Su imagen hiperi?dealizada resuena a nivel emocional¡±, escribieron en la revista Nature, ¡°especialmente con los espectadores que ya tienen creencias afines¡±.
Durante las elecciones generales para elegir a los 543 miembros de la C¨¢mara baja de su Parlamento bicameral, los partidos usaron modelos como Dall-E, Midjourney, Stable Diffusion y Pika para generar material creativo de campa?a de forma barata, flexible e instant¨¢nea, con audios y v¨ªdeos sint¨¦ticos de candidatos dirigi¨¦ndose personalmente a cada votante. En un pa¨ªs gigante y analfabeto con cientos de millones viviendo en zonas rurales remotas, es un buzoneo virtual barato y efectivo. Modi fue el ¨²nico capaz de materializarse en distintas partes de la India en forma de holograma, pero no gracias a la IA. Contrat¨® Pepper¡¯s Ghost, la misma tecnolog¨ªa que la compa?¨ªa Musion us¨® para resucitar al rapero Tupac en el Festival Coachella de 2012.
El partido pol¨ªtico Dravida Munnetra Kazhagam (DMK) us¨® deepfakes para resucitar a M. Karunanidhi, el ic¨®nico presidente del partido y jefe de ministros del Estado de Tamil Nadu fallecido en 2018. Cuentas asociadas al Congreso de la India compartieron un v¨ªdeo falso de la superestrella de Bollywood Aamir Khan, burl¨¢ndose del primer ministro Narendra Modi. Un gesto provocativo porque Khan es musulm¨¢n. Los v¨ªdeos hab¨ªan sido abiertamente manipulados y no buscaban el enga?o, solo emoci¨®n. El propio Modi comparti¨® un v¨ªdeo de s¨ª mismo bailando sobre un famoso meme de Lil Yachty saliendo a cantar en el Lyrical Lemonade Summer Smash diciendo: ¡°Es realmente una delicia tanta creatividad en plena temporada electoral¡±.
Hay usos sorprendentemente leg¨ªtimos para esquivar la censura. En Bielorrusia, un candidato sint¨¦tico de 35 a?os llamado Yas Gaspadar permiti¨® a la l¨ªder exiliada de la oposici¨®n, Svetlana Tijan¨®vskaya, hacer campa?a por la liberaci¨®n de presos pol¨ªticos, las elecciones libres y justas y el final de las armas nucleares. En Pakist¨¢n, el ex primer ministro Imran Khan gener¨® un v¨ªdeo sint¨¦tico para declarar la victoria desde prisi¨®n. Lamentablemente, son los menos. Desde hace una d¨¦cada, la verdadera campa?a pol¨ªtica ya no transcurre en la esfera p¨²blica, sino en la clandestinidad de las redes sociales.
El partido de Modi, BJP, tiene miles de voluntarios que manejan ingentes cantidades de grupos en WhatsApp por los que fluye un caudaloso r¨ªo de desinformaci¨®n. Ek¨, la fundaci¨®n The London Story (TLS) e India Civil Watch International (ICWI) han examinado la Biblioteca de Anuncios de Meta para analizar la actividad de los anunciantes durante la ¨²ltima etapa del periodo previo a las elecciones de 2024. Han comprobado la facilidad con la que Meta acepta anuncios con discurso de odio contra minor¨ªas ¨¦tnicas y han encontrado 22 ¡°anunciantes oscuros¡± que han invertido un mill¨®n de d¨®lares en propagar anuncios pol¨ªticos no autorizados llenos de supremac¨ªa hind¨², deshumanizante e islamof¨®bica. Aquellos que tengan posterior acceso a las probables campa?as de desinformaci¨®n ayudar¨¢n a prevenir las siguientes, porque Modi gan¨® con un 52,4% de los votos.
Injerencia externa: presentadores falsos leen noticias falsas
El ¨²ltimo informe de amenazas de Microsoft se?ala a la Rep¨²blica Popular China (RPC) como origen de numerosas operaciones encubiertas de contenidos generados con IA para intoxicar a votantes en Taiw¨¢n y EE UU. D¨ªas antes de la jornada electoral, segmentos informativos sobre la ¡°historia secreta¡± de Tsai Ing-wen, presidenta de Taiw¨¢n, inundaron YouTube, Instagram, Facebook, Weibo y X. Presentadores sint¨¦ticos de telediario sal¨ªan hablando de un documento de 300 p¨¢ginas lleno de chocantes revelaciones falsas sobre la candidata. Tambi¨¦n generaron clips del candidato retirado Terry Gou, propietario de Foxconn, apoyando al favorito del Gobierno chino, y otros v¨ªdeos en ingl¨¦s y mandar¨ªn culpando a EE UU de provocar los incendios de Haw¨¢i con una m¨¢quina de modificar el tiempo y a la India de las revueltas en Myanmar.
Antes de las elecciones europeas, la red de investigadores EU Disinfo Lab denunci¨® la llamada Operaci¨®n Doppelganger, donde los rusos hab¨ªan clonado m¨¢s de 50 medios, incluyendo la BBC, The New York Times, Der Spiegel, S¨¹ddeutsche Zeitung, la CNN o la agencia Reuters para alterar los contenidos en su favor. Registran el nombre de la web real pero con distinto dominio. Por ejemplo, spiegel.info en lugar de spiegel.de. El primer clip falso responsabilizaba a Ucrania de los ataques en la estaci¨®n de trenes de Kramatorsk. Esta estrategia podr¨ªa extenderse muy r¨¢pido gracias a la IA.
En otra operaci¨®n, donde publicaban las noticias de cabeceras tradicionales francesas modificadas con ChatGPT, fue r¨¢pidamente descubierta, porque al menos 90 art¨ªculos se dejaron las instrucciones pegadas. ¡°Reescribe este art¨ªculo adoptando una postura conservadora contra las pol¨ªticas liberales de la Administraci¨®n de Macron a favor de los ciudadanos franceses de clase obrera¡±, se lee al final de uno de ellos. ¡°Destaca el tono c¨ªnico hacia el Gobierno de EE UU, la OTAN y los pol¨ªticos estadounidenses. Enfatiza la percepci¨®n de los republicanos, Trump, DeSantis, Rusia y RFK Jr. como figuras positivas, mientras que los dem¨®cratas, Biden, la guerra en Ucrania, las grandes corporaciones y la industria farmac¨¦utica se retratan negativamente¡±, dice otro.
Como aprendimos con los fabricantes de fake news macedonios que apoyaron a Trump en 2016 solo porque les resultaba m¨¢s rentable que los alargadores de pene y los hongos sanadores, no todo es ideolog¨ªa. Muchos generan p¨¢ginas de bulos y propaganda con la ¨²nica intenci¨®n de capitalizar la interacci¨®n en el mercado automatizado de publicidad subastada de plataformas publicitarias como Google y Facebook. Australian Community Media, due?a de medios regionales y locales como el Canberra Times, el Illawarra Mercury o el Newcastle Herald, descubri¨® que su propio abogado republicaba sus contenidos, manipulados por IA, gracias a que cometi¨® el mismo error. ¡°Eres un periodista deportivo experimentado. Debes asegurarte de que el art¨ªculo que generes sea diferente al art¨ªculo original para evitar la detecci¨®n de plagio¡±, se lee en uno de los art¨ªculos retocados con IA.
Un informe de la empresa finlandesa de software Check First documenta c¨®mo cuentas falsas de presuntos ciudadanos se pusieron en contacto con m¨¢s de 800 verificadores de datos y medios de comunicaci¨®n en m¨¢s de 75 pa¨ªses para inundarlos con peticiones de verificaci¨®n de informaci¨®n falsa de medios como Pravda y Sputnik. Un ataque de denegaci¨®n de servicio dise?ado para acaparar su atenci¨®n, drenar sus recursos y convencerlos de que difundan la informaci¨®n falsa, en art¨ªculos donde se repite aunque sea para denunciarla. Los investigadores han bautizado su informe igual que la batalla de Normand¨ªa: Operaci¨®n Overlord.
El dividendo del mentiroso: todo es mentira
El efecto de toda esta desinformaci¨®n es acumulativo. Lo explicaba el exdirector de la Agencia de Ciberseguridad y Seguridad de las Infraestructuras del Departamento de Seguridad Nacional de EE UU, Chris Krebs, en el programa Face the Nation: ¡°En lugar de un ¨²nico evento catastr¨®fico habilitado por la IA, ser¨¢ un ritmo constante donde nosotros, los votantes, el p¨²blico, simplemente vamos a perder la confianza en el ecosistema de informaci¨®n en general¡±. Este es un fen¨®meno conocido, que los acad¨¦micos Bob Chesney y Danielle Citron han llamado ¡°el dividendo del mentiroso¡±.
La idea se basa en que la mera existencia de esta tecnolog¨ªa genera tanta duda y escepticismo en el p¨²blico que empieza a cuestionar la autenticidad de cualquier contenido, incluyendo pruebas aut¨¦nticas de conducta criminal. Esto permite a los mentirosos negar la realidad y esquivar la responsabilidad por sus acciones, pero no solo eso. Cuando los cimientos de la realidad se desintegran, los humanos tendemos a refugiarnos en la versi¨®n de la realidad que nos hace sentir m¨¢s seguros, conectados y llenos de raz¨®n. Por ejemplo, cosas como que nos han robado las elecciones o que el Gobierno usa una pandemia falsa para tener controlada a la poblaci¨®n.
En Verdad y pol¨ªtica, Hannah Arendt advirti¨® que la mentira en pol¨ªtica no es solo una herramienta ¨²til para el enga?o sino una m¨¢quina capaz de alterar la realidad misma. Trump utiliza ese sesgo para alimentar el genuino desprecio que sus seguidores tienen por los medios progresistas y crear un relato alternativo y heroico que les hace sentir seguros, conectados y parte de algo m¨¢s grande que ellos mismos. Seg¨²n un sondeo de la firma francesa de investigaci¨®n de mercados Ipsos, la mayor¨ªa de los encuestados en 16 pa¨ªses, incluyendo Espa?a, piensan que la inteligencia artificial aumentar¨¢ la desinformaci¨®n. Curiosamente, la confianza de esos individuos en su habilidad para detectarla es mucho m¨¢s alta que su confianza en la habilidad de los dem¨¢s
La liga antipropaganda en tiempo real
Aunque existen cientos de grupos especializados haciendo un trabajo tit¨¢nico para garantizar la integridad de las elecciones, no siempre trabajan coordinados y a menudo carecen del apoyo de dos jugadores cruciales: las plataformas y la Administraci¨®n. Un experimento ejemplar habr¨ªa sido el Consorcio por la Integridad de las Elecciones (Election Integrity Partnership), reci¨¦n desmantelado por la derecha estadounidense a golpe de demandas. Se trataba de un equipo multidisciplinar formado por cuatro l¨ªderes en la detecci¨®n y an¨¢lisis de campa?as de desinformaci¨®n, redes de influencia, y su propagaci¨®n a trav¨¦s de plataformas digitales: el Stanford Internet Observatory, el Centro para un P¨²blico Informado de la Universidad de Washington, Graphika y el Laboratorio de Investigaci¨®n Forense Digital del Atlantic Council.
El consorcio se estaba preparando para prevenir o mitigar cualquier intento de intervenir las elecciones de 2024 o invalidar sus resultados, desde una sala de crisis con una cuarentena de estudiantes especializados trabajando las 24 horas durante el proceso electoral. Su misi¨®n era coordinar las alertas de una red de colaboradores externos e investigar r¨¢pidamente el alcance de la infecci¨®n a lo largo de casi 300 plataformas, incluyendo puntos de vigilancia de WhatsApp, YouTube o Telegram pero tambi¨¦n comunidades de vecinos como Next Door. Adem¨¢s de docenas de grupos de sociedad civil, verificadores y organizaciones locales que se dedican a monitorizar intentos de supresi¨®n de voto y campa?as virales de desinformaci¨®n durante todo el a?o, ten¨ªan contacto directo con las plataformas, para actuar con velocidad, y con el Centro de An¨¢lisis e Intercambio de Informaci¨®n sobre Infraestructura Electoral (EI-ISAC). Administrado por el Centro de Seguridad de Internet, el ISAC los habr¨ªa advertido de cualquier intento de vulnerar la integridad de la infraestructura.
Tras procesar las alertas y activar los protocolos de mitigaci¨®n, una segunda capa de analistas estudiar¨ªa desde las instituciones cada caso en profundidad. Por ejemplo, en el caso de una alerta de un Facebook Live en un estado p¨²rpura donde se ¡°advierte¡± de un estallido de violencia en los colegios electorales, los estudiantes podr¨ªan identificar que se trata de un v¨ªdeo de una manifestaci¨®n de hace unos meses, y buscarlo en otras plataformas. Despu¨¦s, dar el aviso a las plataformas para que lo eliminen, silencien o etiqueten apropiadamente. Finalmente, los analistas estudiar¨ªan si proviene de agentes dom¨¦sticos o externos, como Rusia o China, y si es un caso aislado o parte de una campa?a m¨¢s grande. Con esa informaci¨®n podr¨¢n avisar a las autoridades para que act¨²en r¨¢pidamente. La desinformaci¨®n local sobre el proceso democr¨¢tico es ilegal en EE UU.
El consorcio hab¨ªa dividido las amenazas en cuatro categor¨ªas: 1) desinformaci¨®n sobre procedimiento del voto (d¨®nde firmar, c¨®mo marcar las casillas, cu¨¢ntas veces); 2) informaci¨®n falsa sobre el lugar del voto para desincentivar la participaci¨®n (violencia, cierre, masificaciones); 3) instrucciones para cometer fraude electoral (votar dos veces, etc¨¦tera), y 4) desinformaci¨®n que pone en duda la integridad de las elecciones. El maridaje m¨¢s esperado este a?o es una combinaci¨®n de ataques a la infraestructura del voto dise?ados para confirmar la desinformaci¨®n sobre su fiabilidad. Lamentablemente, la campa?a de acoso republicano ha llegado antes. La p¨¢gina del consorcio anuncia que ¡°no trabajar¨¢ en las elecciones de 2024 ni en elecciones futuras¡± y Stanford dice que el observatorio ya no trabajar¨¢ en integridad electoral.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.