C¨®mo la nueva Inteligencia Artificial puede manipularte como votante
La IA generativa, unida a la ciencia de redes, puede conseguir que los usuarios cambien de opini¨®n casi de forma inconsciente
No se la llamaba entonces inteligencia artificial (IA), pero la manipulaci¨®n que puso en marcha la empresa Cambridge Analytica, esencialmente a trav¨¦s de la combinaci¨®n de redes sociales y datos personales por medio de algoritmos, de los votantes en el refer¨¦ndum sobre el Brexit ¡ªque triunf¨®¡ª y en las elecciones de 2016 en EE UU, que gan¨® (no en votos populares sino electorales) Donald Trump, cambiaron un equilibrio interno en las democracias. Esa capacidad de influir ¡ªno de decidir?¡ª en las preferencias de los votantes con mensajes individualizados adaptados a los gustos de cada uno es solo un primer paso comparado con lo que entra?a la simbiosis que est¨¢ al llegar entre la IA generativa basada en lenguaje natural (como ChatGPT o Bard, entre las principales), con unas redes sociales mucho m¨¢s ¨¢giles que Facebook (como TikTok) y otros futuros ecosistemas como el Metaverso. ?Lo veremos ya en 2024 en las diversas elecciones europeas (incluidas a la Euroc¨¢mara) o en las cruciales de EE UU? En principio, esta simbiosis va contra la democracia, pero la nueva IA (aceptemos el nombre, aunque no sea propiamente ¡°inteligencia¡±) aporta tambi¨¦n nuevas posibilidades de participaci¨®n directa de los ciudadanos en las decisiones colectivas.
¡°La IA generativa, basada en lenguajes naturales, y la ciencia de redes pueden converger en una tormenta perfecta, para dar lugar a nuevas formas de manipulaci¨®n a nivel societal¡±, se?ala Manuel Cebri¨¢n, uno de los investigadores m¨¢s importantes en este campo a lo largo de dos d¨¦cadas en diversos centros punteros del planeta, ahora en la Universidad Carlos III de Madrid. La capacidad de esta tecnolog¨ªa para adaptarse, aprender y crear, junto con la ciencia de redes que aporta comprensi¨®n detallada de la propagaci¨®n de la informaci¨®n y el cambio social, podr¨ªa utilizarse para socavar la seguridad, la privacidad y la autonom¨ªa a una escala sin precedentes, se?ala. Lo que va mucho m¨¢s all¨¢ de la pol¨ªtica. ¡°Para combatir estos desaf¨ªos¡±, estima Cebri¨¢n, ¡°es fundamental desarrollar y adoptar nuevos enfoques¡±.
En contra
Esta simbiosis va a generar m¨¢s capacidad de desinformaci¨®n. ¡°La IA generativa no solo inundar¨¢ internet con m¨¢s mentiras, sino que tambi¨¦n puede crear desinformaci¨®n convincente dirigida a grupos o incluso a individuos¡±, se?ala un reciente an¨¢lisis en Wired. El uso de las redes sociales (entonces embrionarias) en las campa?as electorales, antes de esta nueva IA, lo empez¨® Barack Obama en 2008. Le permiti¨® no solo hacer llegar sus mensajes a una parte importante de la poblaci¨®n, sino tambi¨¦n escuchar esa ¡°conversaci¨®n p¨²blica¡± que no sab¨ªan recoger las encuestas que, en general, le daban como perdedor en su primer y exitoso intento. Algo similar, con las redes sociales ya plenamente desplegadas, ocurri¨® en las ¨²ltimas elecciones en Espa?a del pasado 23 de julio. Todos los partidos con posibles hacen an¨¢lisis de redes e intervienen, pero, sorprendentemente, no as¨ª los medios de comunicaci¨®n. La consultora Llorente & Cuenca s¨ª realiz¨® este tipo de estudios. Y as¨ª como en la campa?a (en un sentido amplio) para los comicios locales y auton¨®micos del pasado 28 de mayo, el PP logr¨® imponer sus temas en la conversaci¨®n p¨²blica (al final, contra la ley del s¨ª es s¨ª, y los votos comprados), no ocurri¨® lo mismo en las generales del 23-J, en las que, en la ¨²ltima semana de campa?a, dicha conversaci¨®n fue mucho m¨¢s emborronada y favorable a los temas del PSOE, que recuper¨® mucho terreno. Pero hab¨ªa que saber escuchar.
Esto antes de que intervenga la citada simbiosis entre la IA generativa y la ciencia de redes que va a permitir una desinformaci¨®n personalizada. Si las redes sociales cl¨¢sicas usan ya la IA para atraer la atenci¨®n, para que el usuario pase m¨¢s tiempo en ellas, le saquen m¨¢s informaci¨®n, y le metan m¨¢s publicidad, la nueva combinaci¨®n, con las posibilidades de la IA generativa puede llevar a un objetivo mucho m¨¢s peligroso: que el usuario cambie de opini¨®n (pol¨ªtica, cambiando de voto; de consumo u otras formas) casi de forma inconsciente, con mensajes dise?ados para cada cual que cambian de forma casi instant¨¢nea seg¨²n las circunstancias a lo largo de una campa?a, adapt¨¢ndose a cada individuo de forma muy r¨¢pida, gracias a lo que se llama reinforcement learning, aprendizaje por refuerzo.
Un estudio sobre Facebook de Sandra Gonz¨¢lez-Bail¨®n y otros autores, publicado en Science, concluye que ¡°la derecha est¨¢ m¨¢s expuesta a bulos intencionales que la izquierda¡±. En todo caso, esto dar¨¢ mucho poder a los que est¨¦n detr¨¢s, desde un candidato, su oponente o un boicoteador ¡ªhay muchos y de varios tipos¡ª, a empresas o a potencias extranjeras con intereses en los resultados.
Falta poco m¨¢s de un a?o para las elecciones estadounidenses, y menos de nueve para las europeas. El uso de la IA generativa en las campa?as estar¨¢ en sus comienzos. Pero son numerosos los expertos que alertan contra sus efectos, no solo con enormes cantidades de desinformaci¨®n y noticias falsas, con capacidades t¨¦cnicas muy avanzadas (por ejemplo, en v¨ªdeos fake), que r¨¢pidamente se van amoldando a las preferencias de sus destinatarios, e inundando todo el ecosistema de falsedades dif¨ªcilmente diferenciables de las veracidades, especialmente cuando los medios de comunicaci¨®n tienen menos capacidades profesionales. Esta herramienta permite que personas con pocos conocimientos t¨¦cnicos puedan generar esos contenidos, y reduce la capacidad de los receptores de diferenciar lo que viene de otra persona de lo que viene de una m¨¢quina o programa. Un reciente experimento en la Universidad de Cornell envi¨® cartas a siete millares de legisladores en EE UU, la mitad generadas por IA y la otra mitad por humanos. El n¨²mero de respuestas de los legisladores a unas y otras fueron muy similares.
Algunos expertos consideran que hay una aceleraci¨®n y democratizaci¨®n de la propaganda. Archon Fung y Lawrence Lessig, en un an¨¢lisis sobre c¨®mo la IA podr¨ªa tomar el control de las elecciones y socavar la democracia, citan c¨®mo, preguntado en este sentido por el senador Josh Hawley, el propio director ejecutivo de OpenAI (ChatGPT), Sam Altman, respondi¨® en una audiencia parlamentaria que algunas personas podr¨ªan utilizar estos modelos ling¨¹¨ªsticos para manipular, persuadir y entablar interacciones individuales con los votantes.
En los ¨²ltimos meses ¡ªChatGPT va a cumplir un a?o de su lanzamiento p¨²blico¡ª, empresas como OpenAI, que la cre¨®, o Google con Bard, han lanzado sus productos al mercado de masas y as¨ª han surgido herramientas de IA f¨¢ciles de utilizar capaces de crear im¨¢genes fotorrealistas, imitar el sonido de la voz y escribir textos humanos de forma bastante sencilla.
No todos los expertos, sin embargo, coinciden en que la manipulaci¨®n de las redes genera m¨¢s polarizaci¨®n. Algunos estudios, con muestras amplias, como el de Andrew Guess y otros, tambi¨¦n publicado en Science, concluyen que las personas no informaron de cambios en sus comportamientos pol¨ªticos despu¨¦s de que se cambiaran lo que recib¨ªan por Facebook o Instagram. Pero el estudio es anterior a la IA generativa. La polarizaci¨®n est¨¢ ya en las sociedades, pero se puede alimentar con estas tecnolog¨ªas, aunque la televisi¨®n ¡ªen la que est¨¢ por ver c¨®mo entra esta herramienta, un proceso que ya ha empezado¡ª es m¨¢s determinante.
Hay tambi¨¦n otra peligrosa simbiosis en marcha, la de la IA y la neurociencia. Es un campo que investigan tanto los servicios de inteligencia de pa¨ªses como EE.UU., como, especialmente, China, y tambi¨¦n numerosas grandes empresas que quieren influir a trav¨¦s de la manipulaci¨®n de nuestras mentes en nuestras decisiones comerciales. Como se?ala Nita Farahany en su libro The Battle for Your Brain (La batalla por tu cerebro), empresas de marketing descodifican nuestro cerebro para vendernos productos e incluso adaptar elementos de consumo (como las pel¨ªculas o las series) a los deseos de nuestra mente. Y para controlar. En esta ciencia, China parece m¨¢s avanzada, y algunos estudios, como el del Centro para una Nueva Seguridad en EE UU, ven un peligro en la difusi¨®n global de lo que llama el ¡°autoritarismo digital¡±, aunque EE UU tambi¨¦n controla, como puso de manifiesto el exanalista de la CIA Edward Snowden con sus filtraciones. Son numerosos los gobiernos con medios para llevar a cabo investigaciones en este terreno, o comprar la tecnolog¨ªa necesaria, y aplicarlas. El desarrollo de la IA empodera a los gobiernos, a las empresas con medios y a los individuos. Por estas razones, el neurocient¨ªfico espa?ol Rafael Yuste ha promovido un nuevo tipo de derechos, que llama ¡°neuroderechos¡± ¡ªv¨¦ase al respecto la Declaraci¨®n de Valencia a la que se quiere dar mayor alcance¡ª porque ¡°los datos cerebrales pueden ser uno de los pocos baluartes que quedan contra el compromiso total de la privacidad en la vida moderna¡±. Aunque est¨¢ por demostrarse que nuevos derechos o declaraciones impidan este tipo de abusos en el mundo si no van acompa?ados de t¨¦cnicas espec¨ªficas para impedirlos que habr¨¢ que desarrollar.
Entre los previsibles efectos nocivos de la IA generativa en modelos amplios de lenguaje natural est¨¢ que, como lo definen Markus Anderljung y Paul Scharre, se ¡°democratice la violencia¡±, la capacidad de hacer da?o. Ya no solo por parte de hackers o codificadores experimentados, sino por todo tipo de gente. La generaci¨®n de desinformaci¨®n va a resultar mucho m¨¢s f¨¢cil de conseguir, y la diferencia entre la mentira y la verdad, mucho m¨¢s dif¨ªcil de discernir. El concepto de ¡°posverdad¡± para la era que vivimos se puede quedar corto. Y la fabricaci¨®n de armas biol¨®gicas y qu¨ªmicas por parte de individuos y grupos con escasos conocimientos de ellas tambi¨¦n resultar¨¢ facilitada. ?Hacia un terrorismo generativo? La IA puede generar cat¨¢strofes, y no solo impedirlas que es para lo que se supon¨ªa que naci¨®.
Incluso en vez de unir, la IA puede separar, justamente por la uniformidad que fomenta. En pa¨ªses b¨¢sicamente democr¨¢ticos como India, hay nuevos chatbots que fomentan la intolerancia religiosa (de los hind¨²es contra las musulmanes) y el extremismo.
A favor
La IA aporta grandes ventajas, por ejemplo, en avances en medicina o en el estudio del cambio clim¨¢tico. No todo con esta nueva tecnolog¨ªa tiene por qu¨¦ ser negativo para la democracia. Tambi¨¦n brinda nuevas posibilidades a los ciudadanos, para empezar, forzando una nueva transparencia ¡ªadem¨¢s de un mayor control¡ª en las administraciones o en las empresas privadas que sustentan estas nuevas tecnolog¨ªas (a menudo con apoyo del sector p¨²blico).
Puede permitir nuevos tipos de participaci¨®n ciudadana en, por ejemplo, los usos de los fondos p¨²blicos. Es algo que se est¨¢ empezando a estudiar. As¨ª, desde el European Institute of Science in Management, un centro de investigaci¨®n sin ¨¢nimo de lucro con sede en Barcelona, se est¨¢ intentando poner en marcha con un equipo internacional de polit¨®logos, f¨ªsicos te¨®ricos, matem¨¢ticos, bi¨®logos, neurocient¨ªficos, y economistas de Israel, USA y Europa un programa para enlazar la matem¨¢tica de la f¨ªsica cu¨¢ntica con un nuevo tipo de gobernanza democr¨¢tica multinivel para la que la nueva IA ser¨¢ esencial, con unos primeros ensayos en ciudades europeas. Son proyectos de investigaci¨®n que permitir¨ªan una participaci¨®n m¨¢s profunda de la ciudadan¨ªa no s¨®lo en la elecci¨®n de sus representantes, sino tambi¨¦n de las prioridades presupuestarias a adoptar en ayuntamientos.
?Regular es la soluci¨®n?
Crecen las demandas, incluso por los propios impulsores de la nueva tecnolog¨ªa, de regular el uso de la IA generativa en las elecciones democr¨¢ticas, aunque hay dudas sobre la efectividad de tales regulaciones. OpenAI se ha comprometido a monitorear el uso de su ChatGPT para tratar de detectar operaciones de influencia pol¨ªtica.
Algunos expertos, como los citados Anderljung y Scharre, hablan de la necesidad de ¡°alineaci¨®n de la IA¡±, es decir, de asegurar que los objetivos de un sistema de IA coinciden con las intenciones de sus usuarios y los valores de la sociedad. Se podr¨ªan prohibir este tipo de programas. Pero estos autores reconocen que ¡°hasta ahora, nadie ha descubierto c¨®mo controlar de forma fiable el comportamiento de la IA¡±, y menos cuando se prioriza (no es el caso de China) la libertad de expresi¨®n, que habr¨¢ que reforzar con la libertad de pensamiento, si nos controlan este ¨²ltimo como George Orwell entrevi¨®.
La UE lo est¨¢ intentado con la nueva Ley de IA, la primera del mundo de su tipo, que est¨¢ pendiente de un acuerdo final entre las instituciones, y cuya efectividad est¨¢ por ver. El proyecto establece cuatro niveles de riesgo para los sistemas de IA, cada uno con su propio conjunto de requisitos de transparencia, trazabilidad, no discriminaci¨®n y respeto por los derechos humanos. Los sistemas de IA de alto riesgo, como los que se usan en la toma de decisiones automatizadas con implicaciones legales o significativas para las personas, deben ser sometidos a una evaluaci¨®n de impacto de la IA antes de su despliegue.
Sobre todo, hay que educar a los ciudadanos, desde los m¨¢s j¨®venes hasta los m¨¢s mayores, en lo que implican estas tecnolog¨ªas. Ya casi todo el mundo sabe que lo gratuito, para el usuario, tiene un precio, el de los datos cedidos a cambio, y ahora la capacidad de manipulaci¨®n de nuestras propias mentes. Mucha IA generativa es gratuita. La alimentamos con nuestras preguntas, im¨¢genes o escritos. Lo gratuito se acaba pagando. De otra forma.
Ap¨²ntate aqu¨ª a la newsletter semanal de Ideas.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.