La guerra de los robots: la salvaci¨®n antes de la era ¡®fake¡¯
La carrera 'armament¨ªstica' entre algoritmos que crean o detectan falsificaciones ya ha empezado
El mundo de Instagram no es m¨¢s bonito que el real por casualidad, sino porque la edici¨®n de foto es universal. Photoshop ya no es solo para profesionales, docenas de apps replican sus funciones y son f¨¢ciles de usar: "La gente las usa para cambiar el enfoque, encuadrar, puntos de luz, filtros, a?adir o quitar objetos, darle apariencia vintage y, por supuesto, retocar la cara y el cuerpo", dice Mar¨ªa Bret¨®n, jefa de Social en Groupm. "Todas las fotos pasan por un editor", a?ade.
La realidad retocada de Instagram es solo un aperitivo de nuestro futuro. La inteligencia artificial permitir¨¢ crear realidad. Ya no solo podremos retocarla, podremos inventarla. En los ¨²ltimos d¨ªas se han anunciado novedades extraordinarias en la creaci¨®n de fotos, textos y v¨ªdeos falsos. Son el pr¨®logo de un mundo nuevo, donde la posici¨®n por defecto deber¨¢ ser no creer lo que vean tus ojos en una pantalla.
Pronto echaremos de menos a las simples 'fake news', que solo hay que contrastar
Nuestros ojos no sabr¨¢n distinguir si es falso un v¨ªdeo donde habla, por ejemplo, el presidente del Gobierno o si una pelea en el centro de la plaza del pueblo ocurri¨® o no. ?Qu¨¦ soluci¨®n hay? ?Igual que hay robots malos que crean falsificaciones podremos programar robots buenos que identifiquen la mentira? Es una esperanza, pero no es seguro. Es m¨¢s seguro que pronto echaremos de menos a las simples fake news, que solo hay que contrastar.
El Instituto OpenAI, impulsado por Elon Musk, fue creado en 2015 para divulgar descubrimientos en inteligencia artificial. Ahora acaba de anunciar un modelo que sin entrenamiento es capaz de escribir textos a partir de un par de frases iniciales. Los investigadores no han querido publicar el c¨®digo para complicar su r¨¦plica. Temen que se use para automatizar la creaci¨®n de textos falsos que inunden internet, desde noticias falsas o posts de Facebook a reviews inventadas en TripAdvisor.
En diciembre la empresa Nvidia public¨® los resultados de un trabajo donde creaban caras perfectas a partir de la combinaci¨®n de rostros reales. En febrero, un ingeniero de Uber, Philip Wang, ha usado ese c¨®digo para crear la web thispersondoesnotexist.com [estapersonanoexiste.com] que ense?a cara tras cara perfectamente reales que no existen. "He decidido rascarme el bolsillo para llamar la atenci¨®n sobre esta tecnolog¨ªa", explica Wang en Facebook. A partir del repositorio de Nvidia se pueden crear tambi¨¦n gatos, coches y habitaciones. Wang ha creado otra web de gatos (thiscatdoesnotexist.com) pero no est¨¢n tan refinados y suelen salir peque?os engendros.
I've gone down a black hole of the latest DeepFakes and this mashup of Steve Buscemi and Jennifer Lawrence is a sight to behold pic.twitter.com/sWnU8SmAcz
— Mikael Thalen (@MikaelThalen) January 29, 2019
A pesar de los obst¨¢culos, la expansi¨®n es ya incontrolable. Hay tutoriales en internet para crear v¨ªdeos falsos. Hace unos d¨ªas apareci¨® un v¨ªdeo impecable de la actriz Jennifer Lawrence en una rueda de prensa a la que le hab¨ªan incrustado la cara del actor Steve Buscemi. A estos v¨ªdeos se les llama deepfakes, "profundos falsos".
Habr¨¢ quien piense que esto ya existe. No. Ahora una pol¨ªtica brit¨¢nica de extrema derecha puede escoger un v¨ªdeo de Alejandr¨ªa (Egipto) de 2013, tuitearlo sin m¨¢s contexto que los musulmanes son malos y acabar retuiteado por Donald Trump. Pero ese caso se corrigi¨® r¨¢pido con una simple b¨²squeda en Google.
En la nueva era fake, las opciones se multiplicar¨¢n. Una figura p¨²blica grabada en una mala situaci¨®n dir¨¢ que un enemigo ha creado ese "deepfake". Esa negativa ser¨¢ de repente plausible. ?Qu¨¦ pol¨ªtico pillado en una declaraci¨®n o escena desafortunadas no clamar¨¢ "deepfake"?
Hay ya un campo de investigaci¨®n que se dedica precisamente a detectar v¨ªdeos falsos: el An¨¢lisis forense digital. "Hay una carrera armament¨ªstica entre hacer falsificaciones digitales y detectar esas falsificaciones", dice Siwei Lyu, profesor de la Universidad de Albany (EE UU). Antes de 2017, este campo se centraba en Photoshop. Ahora los dos bandos aprovechan la inteligencia artificial.
C¨®mo funcionan estos modelos
El funcionamiento de estos modelos de inteligencia artificial no son ning¨²n misterio. Un algoritmo as¨ª requiere de bases de datos inmensas. Para escribir, por ejemplo. Se le dan millones de frases y textos y el modelo aprende, dadas las palabras que ha visto en su base, cu¨¢l es el orden m¨¢s probable. El algoritmo no es consciente de si eso que escribe tiene sentido o es verdad. Solo que se parece a lo que ha visto. Y no siempre acierta. Pero sus errores son a menudo menores y sino f¨¢cilmente corregibles: repite el proceso.
Ocurre igual con los v¨ªdeos deepfake. Necesita im¨¢genes de un individuo con expresiones distintas, desde varios ¨¢ngulos y hablando. El modelo observa c¨®mo es una se?ora y resume ese conocimiento en una acci¨®n que la se?ora nunca antes ha hecho. O el presidente puede de repente decir que odia a los inmigrantes. El candidato puede aparecer besando a la cantante. O el futbolista puede beber y fumar en la barra de una discoteca. Solo hacen falta muchas im¨¢genes de cada cual, aplicar el modelo y poder de computaci¨®n.
No es la primera vez que habr¨¢ una guerra as¨ª: los virus y los antivirus siguen vigentes. Es un ejemplo, adem¨¢s, que prueba la eficacia del mal para sobrevivir. Hay toda una industria millonaria creada alrededor de los antivirus. Los fakes presentan un problema a?adido respecto a los virus: su c¨®digo no se publica. "Un grupo de hackers an¨®nimos genera deepfakes y los detalles de su algoritmo quiz¨¢ no est¨¦n disponibles como los de un ataque inform¨¢tico. Mientras, la tecnolog¨ªa de protecci¨®n suele hacerse en la academia con papers p¨²blicos", dice Lyu.
Los tramposos saben c¨®mo les persiguen. Es como si un ladr¨®n de bancos va a robar con un GPS donde ve c¨®mo se mueven los polic¨ªas y los polic¨ªas dependen solo de su intuici¨®n. "De aqu¨ª en adelante, los generadores de deepfakes se entrenar¨¢n para enga?ar a los detectives", dice Giorgio Patrini, fundador de Deeptrace, empresa dedicada a detectar v¨ªdeos falsos.
"Es mejor que tengamos alguna tecnolog¨ªa antes de que una persona pueda hacerse pasar por nosotros en una v¨ªdeollamada"
De momento, por tanto, no hay soluci¨®n. Deeptrace se dedica a esto y pide m¨¢s tiempo. "Ahora mismo no hay ninguna tecnolog¨ªa con un nivel de madurez suficiente para ser desplegada en el mundo real", dice Patrini. Y es mejor que llegue cuanto antes, cree, mientras las m¨¢quinas malas a¨²n est¨¢n aprendiendo c¨®mo inventar escenas. Es decir, no solo mezclar dos rostros o poner una cabeza en un cuerpo ajeno y hacerla hablar, sino crear algo que nunca existi¨®. "Es mejor que tengamos alguna tecnolog¨ªa antes de que una persona pueda hacerse pasar por nosotros en una v¨ªdeollamada solo descarg¨¢ndose un software", a?ade Patrini.
De momento la alternativa es educar a humanos: "Debemos empezar a detectar cuando se crean im¨¢genes falsas de humanos. Nosotros hemos empezado entrenando a humanos. El pr¨®ximo paso es entrenar inteligencia artificial", dice Jevin West, profesor de la Universidad de Washington.
A quien le falte imaginaci¨®n para pensar aplicaciones de estas tecnolog¨ªas, un cient¨ªfico del laboratorio nacional de Los Alamos tiene este ejemplo: pide al algoritmo una foto de tu vecino antip¨¢tico con una pistola en la mano, impl¨¢ntalo en el v¨ªdeo de la c¨¢mara de seguridad de una farmacia y haz que le encarcelen.
Patrini es de los cient¨ªficos que creen que hay tiempo para que los robots nos defiendan. Battista Biggio, profesor de la Universidad de Cagliari (Italia), cree que la opci¨®n m¨¢s segura es acostumbrarse: "Con im¨¢genes, v¨ªdeos, audios el malhechor puede b¨¢sicamente cambiar todo casi sin v¨ªnculos. Ser¨¢ muy dif¨ªcil defenderse t¨¦cnicamente de estas amenazas", dice.
?Su soluci¨®n? Mejor acostumbrarnos a no creer lo que ven nuestros ojos. "Deberemos usar soluciones tecnol¨®gicas distintas para certificar la informaci¨®n desde el inicio, la fuente del dato", dice Biggio. Aunque, como saben los autores de certificados de software, tambi¨¦n son sencillos de falsificar.
La guerra de robots para la era fake ya ha empezado. Quiz¨¢ los buenos resistan. Pero no es mala idea entrenar ya la mirada con un escepticismo total.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.