M¨¢s all¨¢ de Lola Flores: el peligro para los ciudadanos y para la democracia de los v¨ªdeos falsos hiperrealistas
La democratizaci¨®n de la inteligencia artificial permite que el n¨²mero de los ¡®deepfakes¡¯ se duplique cada seis meses, seg¨²n el sector
La palabra deepfake (literalmente, enga?o profundo) ya se ha colado en nuestro d¨ªa a d¨ªa. Se refiere a los v¨ªdeos realizados mediante inteligencia artificial que muestran a una persona haciendo y diciendo cosas que en la realidad nunca hizo o dijo. El presidente de Estados Unidos, Joe Biden, y su predecesor, Donald Trump, han sido protagonistas de algunos de ellos. Con ayuda de la tecnolog¨ªa, se consigue que un texto le¨ªdo por un actor pase por unas declaraciones de Barack Obama o que Jim Carrey sustituya a Jack Nicholson en la pel¨ªcula El resplandor. Tambi¨¦n se han usado en pel¨ªculas de la saga Star Wars para resucitar a Carrie Fisher o, m¨¢s recientemente, para rejuvenecer a Eduard Fern¨¢ndez en la serie 30 monedas. La ¨²ltima en utilizarlos ha sido la cervecera Cruzcampo, que recientemente lanz¨® un anuncio en el que la difunta folcl¨®rica Lola Flores pronunciaba palabras que nunca lleg¨® a articular (al menos en ese orden) en sus 72 a?os de vida.
N¨²mero de v¨ªdeos falsos con IA detectados en Internet
Desde diciembre de 2018, el n¨²mero de deepfakes que se pueden encontrar en Internet se duplica aproximadamente cada seis meses, seg¨²n la compa?¨ªa especializada Sensity. La democratizaci¨®n de la tecnolog¨ªa ha permitido que cualquier persona con acceso a un programa o app de edici¨®n pueda manipular o alterar una foto o v¨ªdeo. Dise?ar estos enga?os es m¨¢s f¨¢cil de lo que parece. Hay herramientas, algunas incluso gratuitas, que permiten crearlos de forma r¨¢pida y sencilla. ¡°Muchas de ellas no son muy profesionales, lo que facilita identificar que estamos ante un v¨ªdeo manipulado¡±, cuenta Ruth Garc¨ªa, t¨¦cnica de Ciberseguridad para Ciudadanos del Instituto Nacional de Ciberseguridad (INCIBE). ¡°Pero aunque el resultado no sea perfecto, puede servir para enga?ar a buena parte de los usuarios, especialmente a las personas mayores o a cualquiera que haga un uso b¨¢sico y poco cr¨ªtico de la tecnolog¨ªa¡±.
Los deepfakes suponen un paso adelante en este tipo de manipulaci¨®n por la perfecci¨®n alcanzada. Pueden convertirse en un instrumento que afecte a la integridad de perfiles an¨®nimos: como arma de venganza (el llamado revenge porn, simular escenas sexuales para vengarse de exparejas) o para un uso malicioso en el terreno empresarial. No son pocos los especialistas que alertan de que pueden llegar a convertirse en una peligrosa arma pol¨ªtica usada para manipular la opini¨®n p¨²blica o desestabilizar los sistemas democr¨¢ticos.
¡°Creemos que los v¨ªdeos en s¨ª no suponen un peligro¡±, aseguran portavoces del Centro Tecnol¨®gico Vicomtech. ¡°Es el uso que se hace de ellos a lo que hay que prestar atenci¨®n: no es lo mismo generar un v¨ªdeo para una campa?a publicitaria que recrear a una persona p¨²blica transmitiendo ciertos mensajes que pueden tener un impacto muy grande en la poblaci¨®n en general¡±. Julio Fuentes, fundador de Maldito Bulo, se reafirma en la idea. ¡°No hay duda de que el peligro es claro, pero la cuesti¨®n es que ahora mismo los malos, los que desinforman, ganan dinero o buscan influir ideol¨®gicamente con desinformaciones, ni siquiera necesitan ese nivel de perfecci¨®n para conseguir su objetivo¡±.
Su uso pol¨ªtico es, por el momento, moderado, sin embargo, es previsible que vaya a m¨¢s en un futuro. ¡°Es solo cuesti¨®n de tiempo que estos v¨ªdeos se utilicen en un intento de manipular las elecciones¡±, asegur¨® recientemente Paul Scharre, director de Tecnolog¨ªa y Seguridad Nacional del Centro Para una Nueva Seguridad Americana (CNAS).
De momento, la diana est¨¢ puesta sobre todo en el sector del entretenimiento: el 62,7% de los v¨ªdeos que se crean tiene que ver con esta tem¨¢tica. ¡°Hemos identificado un notable aumento en el n¨²mero de personalidades de Instagram, Twitch y YouTube que son objetivo de estos v¨ªdeos. Tambi¨¦n vemos que crece el n¨²mero de aquellos relacionados con el ¨¢mbito empresarial o pol¨ªtico. Rondan el 4%¡±, explica Giorgio Patrini, consejero delegado y cient¨ªfico jefe de Sensity.
Estos avances ya han demostrado ser una amenaza real para la ciberseguridad. En marzo de 2019, una empresa de energ¨ªa con sede en el Reino Unido ¡ªde la que no ha trascendido el nombre¡ª sufri¨® un ataque utilizando inteligencia artificial para recrear la voz del director general de la compa?¨ªa. Los ciberdelincuentes dise?aron una grabaci¨®n en la que el directivo solicitaba una transferencia urgente de 220.000 euros. La tecnolog¨ªa detr¨¢s de los deepfakes consigue recreaciones tan fidedignas que son capaces de hacer creer a los empleados que est¨¢n escuchando a su propio jefe cuando en realidad se trata de una grabaci¨®n falsa hiperrealista. El responsable de finanzas que recibi¨® el mensaje de voz dijo que la imitaci¨®n era tan real que percibi¨® el acento y la entonaci¨®n caracter¨ªsticos del jefe de la empresa, seg¨²n cuenta The Wall Street Journal.
Tanto los v¨ªdeos como las grabaciones de voz creadas con inteligencia artificial pueden ayudar a los atacantes a la hora de conseguir grandes sumas de dinero mediante transferencias fraudulentas. La clave del ¨¦xito de estas estafas radica en la confianza que el destinatario deposita en el supuesto solicitante (en este caso, su jefe) y lo convincente que resulta la grabaci¨®n o el v¨ªdeo hiperrealista. ¡°Un audio o v¨ªdeo falsos pueden aumentar la potencia y la efectividad de los ataques¡±, apunta Fernando Anaya, country manager de Proofpoint. ¡°Mediante el deepfake, los atacantes pueden hacer que una solicitud de pago parezca todav¨ªa m¨¢s leg¨ªtima si dan muchos detalles del presunto solicitante, a?adiendo un componente emocional a ese mensaje fraudulento¡±.
Este tipo de ataques en los que alguien se hace pasar por el responsable para exigir el pago de un pedido o cambiar una cuenta bancaria ya exist¨ªan antes, pero se llevaban a cabo enviando un correo electr¨®nico. ¡°Los deepfakes sirven para potenciar ataques tradicionales¡±, explica Eusebio Nieva, director t¨¦cnico de Check Point en Espa?a y Portugal. ¡°Son un conjunto de ataques muy espec¨ªficos, que requieren preparaci¨®n y mucha elaboraci¨®n previa porque est¨¢n personalizados, as¨ª que se necesita tener acceso a im¨¢genes o audios de la persona que se quiere suplantar. No vale con enviar un correo gen¨¦rico, como sucede con el phishing [hacerse pasar por una persona, empresa o servicio de confianza para que la v¨ªctima haga acciones que no deber¨ªa realizar]¡±.
Estos v¨ªdeos hiperrealistas tambi¨¦n se pueden usar para extorsionar a usuarios an¨®nimos. Hasta ahora, una de las t¨¢cticas habituales de los ciberdelincuentes es enviar correos asegurando que han grabado al usuario viendo porno y van a distribuir el v¨ªdeo si no les paga. La mayor¨ªa de las veces es mentira y esa grabaci¨®n no existe, pero algunos se lo creen y acceden a pagar. Con estos v¨ªdeos falsos, los hackers pueden crear ese v¨ªdeo de la nada. ¡°Aun sabiendo que el v¨ªdeo es falso, te obligan a pagar porque han puesto tu cara en una escena comprometida, ya sea viendo porno o incluso participando de ¨¦l¡±, explica Ruth Garc¨ªa, t¨¦cnica de Ciberseguridad para Ciudadanos del INCIBE.
Es verdad que para crear este tipo de v¨ªdeos necesitan material en el que basarse, como im¨¢genes y documentos de audio. Pero con herramientas como las stories de Instagram (los v¨ªdeos con fecha de caducidad que suben los usuarios) es muy f¨¢cil acceder a ese tipo de informaci¨®n. ¡°Si haces declaraciones a menudo en las redes sociales y te sueles grabar en v¨ªdeo, ya sea porque eres influencer y promocionas algo o porque tienes un canal de recetas en YouTube, tienen material para poner en tu boca cosas que no has dicho y que puedan perjudicarte en el presente o a medio y largo plazo¡±, advierte Garc¨ªa.
Esta situaci¨®n puede hacer mucho da?o a la imagen del usuario, sobre todo porque las declaraciones pol¨¦micas se viralizan muy r¨¢pidamente, pero las correcciones o aclaraciones sobre ese contenido no llegan tan lejos. ¡°Lo m¨¢s f¨¢cil es que la gente se quede con el v¨ªdeo pol¨¦mico en lugar de con la realidad, tambi¨¦n porque es muy dif¨ªcil desmentirlo: los dem¨¢s ya te han visto con sus propios ojos y el v¨ªdeo, aunque falso, es hiperrealista¡±, recuerda Garc¨ªa.
?Son legales? S¨ª, comenta el experto en derecho y tecnolog¨ªa Borja Adsuara. ¡°En Espa?a los delitos nunca se catalogan por la tecnolog¨ªa utilizada, sino seg¨²n la intenci¨®n con que se hacen y al bien jur¨ªdico contra el que atentan¡±. Todo depende del contenido del v¨ªdeo. En este caso, apunta el jurista, entrar¨ªan en juego los delitos contra el honor, la intimidad, la integridad moral y las intromisiones ileg¨ªtimas. Tambi¨¦n pueden atentar contra el derecho al honor, la intimidad y la propia imagen, adem¨¢s del uso sin autorizaci¨®n de la imagen de una persona.
La inteligencia artificial est¨¢ facilitando as¨ª que los cibercriminales creen nuevas amenazas. Aunque esta t¨¦cnica a¨²n no se ha implementado de forma generalizada como ciberataque, los expertos llaman la atenci¨®n sobre su r¨¢pida expansi¨®n y su gran eficacia. ¡°Dada la rapidez con la que la tecnolog¨ªa est¨¢ evolucionando y a medida que los cibercriminales contin¨²an innovando, debe ser tenida m¨¢s en cuenta por parte de organizaciones y usuarios¡±, explica Anaya, de Proofpoint. Si la inteligencia artificial se vuelve cada vez m¨¢s convincente al imitar la comunicaci¨®n humana, es probable que estos ataques sean tambi¨¦n cada vez m¨¢s comunes.
El propio director general de Alphabet y Google, Sundar Pichai, ha llegado a declarar ¡°que la historia est¨¢ llena de ejemplos de c¨®mo las virtudes de la tecnolog¨ªa no est¨¢n garantizadas¡± y que estas lecciones nos ense?an que tenemos que ¡°estar alerta de lo que puede salir mal¡±. El ejecutivo admite que hay ¡°preocupaci¨®n real¡± sobre las potenciales consecuencias negativas de la inteligencia artificial, desde los estos v¨ªdeos hiperrealistas hasta los ¡°usos viles¡± del reconocimiento facial. ¡°No albergo dudas de que la inteligencia artificial ha de ser regulada; la cuesti¨®n es c¨®mo¡±.
?C¨®mo se genera un v¨ªdeo de 'deepfake'?
Para hacer un v¨ªdeo de estas caracter¨ªsticas hacen falta otros dos v¨ªdeos, uno para la persona que se quiere suplantar y el otro para la persona suplantada, explica el Centro Tecnol¨®gico Vicomtech. El proceso autom¨¢tico de generaci¨®n consiste en utilizar lo que se llama una red generativa adversarial (GAN) basada en inteligencia artificial entrenada con millones de im¨¢genes de caras. Esta red neuronal se entrena con las caras de los dos v¨ªdeos, realizando ajustes por cada iteraci¨®n y dentro de ella se produce un juego entre dos partes: la generativa y la adversarial. La primera crea el deepfake, y la segunda decide si esa cara es falsa o real. Cuando el sistema adversarial es enga?ado por el generativo, la cara se va suplantando en el v¨ªdeo fotograma a fotograma. Como normalmente el resultado del deepfake suele tener peque?os fallos, se aplican t¨¦cnicas de retoque fotogr¨¢fico por cada fotograma.
El origen del t¨¦rmino
El t¨¦rmino deepfake fue acu?ado por primera vez por el usuario de Reddit u/deepfakes. Esta persona cre¨® un foro de Reddit con el mismo nombre el 2 de noviembre de 2017, y lo destin¨® a comentar la creaci¨®n y uso de software de aprendizaje profundo (el llamado deep learning) para llevar a cabo lo que en el argot se denomina faceswapping (intercambio de caras) en v¨ªdeos, sobre todo de mujeres famosas. La empresa elimin¨® este foro el 7 de febrero de 2018. Pero su uso ha explotado.
Puedes seguir a EL PA?S TECNOLOG?A RETINA en Facebook, Twitter, Instagram o suscribirte aqu¨ª a nuestra Newsletter.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.