C¨®mo evitar que ChatGPT provoque un nuevo asalto al Capitolio
Wolf News, un programa de noticias falsas presentado por personas que no existen, demuestra que las nuevas herramientas de Inteligencia Artificial son un ¡®kal¨¢shnikov¡¯ para la desinformaci¨®n
Es un discurso televisado en 1969 en el que Richard Nixon comunica el desastre del Apollo 11. ¡°Estos hombres valientes, Neil Armstrong y Edwin Aldrin, saben que no hay esperanza para su recuperaci¨®n¡±, dice mirando gravemente a c¨¢mara. Es un documento hist¨®rico emocionante y evidentemente falso, pero s¨®lo para quien sabe que la misi¨®n aluniz¨® con ¨¦xito. ¡°En caso de desastre lunar¡± es un deepfake ¡ªneologismo compuesto de deep learning [sistema de aprendizaje autom¨¢tico] y fake [falso]¡ª realizado por Francesca Panetta y Halsey Burgund en el MIT para demostrar la creciente verosimilitud de los contenidos sint¨¦ticos generados artificialmente con inteligencia artificial.
Los artistas reconstruyeron el set en el que Nixon anunci¨® (realmente) su dimisi¨®n y grabaron el discurso con un actor. Despu¨¦s suplantaron sus facciones por las del presidente y recrearon su voz con ayuda de la firma ucrania Respeecher y Canny AI de Israel. ¡°Hacer que un deepfake sea convincente es muy dif¨ªcil¡±, dijo Panetta en su lanzamiento, en diciembre de 2019. ¡°Es casi un alivio¡±. Tres a?os m¨¢s tarde, aparece Wolf News, un programa de noticias falsas presentado por personas que no existen, en las redes de propaganda del gobierno chino.
Tanto presentadores como contenidos parecen reales, pero han sido generados usando el software comercial de la compa?¨ªa londinense Synthesia. Seg¨²n la firma de investigaci¨®n forense digital Graphika, es el primer deep fake que aparece en una campa?a de influencia estatal. Son contenidos de propaganda pro-china: un locutor occidental informa en ingl¨¦s sobre la vergonzosa falta de acci¨®n estatal contra los tiroteos masivos que asolan Estados Unidos. Y una presentadora, ¨¦tnicamente ambigua, destaca el papel de China en las relaciones geopol¨ªticas en un encuentro internacional, seg¨²n public¨® The New York Times. ¡°A medida que se vayan haciendo m¨¢s populares¡±, dice por correo electr¨®nico Ren¨¦e Diresta, jefa de investigaci¨®n del Observatorio de Internet de Stanford, ¡°es razonable esperar que ser¨¢n utilizadas en importantes contextos pol¨ªticos¡±. Las pr¨®ximas campa?as electorales tienen un dispensador de contenidos a la carta.
El ¡®kal¨¢shnikov¡¯ de la propaganda
Los modelos que generan im¨¢genes, como MidJourney, DALL¡¤E (OpenAI) y Stable Diffusion (Stability AI), nos acercan t¨¦cnicas de manipulaci¨®n digital antes reservadas a los estudios profesionales de posproducci¨®n y efectos especiales. Los de texto, como LaMDA (Google), Galactica (Meta) y ChatGPT (OpenAI), la habilidad de producir contenidos infinitos e instant¨¢neos sobre cualquier tema y formato sin contratar una redacci¨®n. El periodista Tristan Greene us¨® Galactica para generar Una investigaci¨®n sobre los beneficios de consumir cristales rotos, que defiende la superioridad del vidrio para corregir la acidez estomacal. Su habilidad de defender cualquier postura con la minuciosidad de un catedr¨¢tico y el aplomo de un tertuliano aterriza en un entorno medi¨¢tico que a¨²n no sabe protegerse de la desinformaci¨®n artesanal.
¡°No est¨¢ claro que las grandes tecnol¨®gicas vayan a ser capaces de identificar el contenido sint¨¦tico¡±Ren¨¦e Diresta (Standford)
¡°No est¨¢ claro que las plataformas tecnol¨®gicas vayan a ser capaces de identificar el contenido sint¨¦tico¡±, explica Diresta. En oto?o de 2021, se reuni¨® con un supergrupo de expertos internacionales para estudiar el impacto de estas nuevas herramientas. El informe resultante, reci¨¦n publicado, se titula Modelos de lenguaje generativos y operaciones de influencia automatizadas: amenazas emergentes y mitigaciones potenciales. Uno de los coautores es la empresa de ChatGPT OpenAI.
Una imprescincible coalici¨®n de control
Los verificadores lo tendr¨¢n dif¨ªcil. Antes las agencias de desinformaci¨®n robaban fotos en las redes sociales o las compraban a bancos de im¨¢genes, facilitando su detecci¨®n. Ahora pueden generar personas usando redes generativas adversarias (GAN), como demuestra la web thispersondoesnot?exist.com. Antes plagiaban textos de Wikipedia y de The New York Times para acelerar la producci¨®n y disimular su dominio imperfecto del lenguaje. Ahora pueden generar textos aparentemente originales defendiendo cualquier tesis. ¡°Tendremos que investigar la autenticidad de las redes que los comparten o los dominios donde se mueven¡±, cuenta Diresta. El ¡°comportamiento coordinado inaut¨¦ntico¡± es el nombre que usan para tipificar las redes de cuentas mercenarias que, pasando por ciudadanos normales, se organizan para distribuir propaganda en la Red.
Las principales propuestas de mitigaci¨®n tienen que ver con el control de las empresas. OpenAI mantiene el software generativo en su propia nube, controlando qui¨¦n lo utiliza a trav¨¦s de una API [una interfaz que permite la comunicaci¨®n entre programas y aplicaciones]. Pero nada garantiza que vayan a asumir la responsabilidad. Durante los ¨²ltimos 20 a?os, las plataformas digitales han aprovechado su condici¨®n administrativa de distribuidores neutrales para beneficiarse econ¨®micamente del tr¨¢fico de contenidos que atraviesa sus servidores sin responsabilizarse de su toxicidad. ¡°No parece haber ning¨²n avance regulatorio espec¨ªficamente centrado en este tema¡±, dice Diresta. Pero, incluso si se implementan medidas legales sin discriminar o reprimir a los usuarios, hay empresas como Stability AI que liberan el c¨®digo y hackers profesionales capaces de robarlo para reg¨ªmenes aficionados a las campa?as de propaganda y desinformaci¨®n. Hace falta una coalici¨®n.
Qui¨¦n le pone el cascabel a la IA
¡°Una gesti¨®n efectiva requerir¨¢ la cooperaci¨®n de diferentes instituciones, como las empresas de IA, las redes sociales y las agencias gubernamentales¡±, explica el informe. Imaginan una alianza donde los contenidos sint¨¦ticos quedan registrados temporalmente en una base de datos que ayude a las plataformas digitales para identificarlos cuando muestran comportamientos coordinados inaut¨¦nticos. Un plan ambicioso, teniendo en cuenta la ausencia de representantes de las plataformas digitales en el taller. La propuesta m¨¢s radical es manipular la ¡°dieta¡± que entrena estos modelos para hacerla ¡°radioactiva¡±, marcando de forma rastreable todos los contenidos sint¨¦ticos que genere. Una soluci¨®n experimental y dif¨ªcilmente escalable, ya que en ¨²ltima instancia implicar¨ªa contaminar desde el origen gran parte de los contenidos, sean o no t¨®xicos, que produzcan los 4.900 millones de usuarios de la Red.
La Iniciativa para la Autenticidad del Contenido, impulsada por Adobe en 2019, propone un sistema de trazabilidad a trav¨¦s de metadatos que ayuden a identificar la procedencia de contenidos. Es un proceso similar al de la cadena de bloques, que empieza en la propia c¨¢mara que captura la foto. Es voluntaria. ¡°Nosotros lo llamamos el sendero dorado¡±, explica Santiago Lyon, responsable de educaci¨®n de Adobe y exjefe del departamento fotogr¨¢fico de la agencia Associated Press. ¡°Es seguir el sendero empezando por la captura, luego pasando a la edici¨®n, luego por la publicaci¨®n, de modo que, cuando finalmente llega al usuario final, pueda ver si ese archivo se ha desviado del sendero, empez¨® tarde o le faltan datos¡±. La iniciativa est¨¢ incorporando empresas de c¨¢maras, plataformas, agencias de prensa y medios de comunicaci¨®n para crear este sendero y espera poder tener un prototipo funcionando a finales de 2023. ?Y no tiene miedo de estar construyendo un castillo a prueba de flechas justo antes de que aparezca el ca?¨®n? Diresta es optimista: ¡°El castillo est¨¢ hecho de materiales pesados, pero la tecnolog¨ªa est¨¢ hecha de c¨®digo, es un material flexible con la habilidad de aprender, de adaptarse y cambiar¡±, responde.
Ap¨²ntate aqu¨ª a la newsletter semanal de Ideas.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.