Los ¡®deepfakes¡¯ complican la lucha contra las noticias falsas
Las t¨¦cnicas de ¡®deep learning¡¯ suponen tanto el problema como la soluci¨®n a la hora de detectar montajes hiperrealistas en v¨ªdeo
Los videomontajes hiperrealistas podr¨ªan conducirnos a un escenario donde tendr¨ªa validez el eslogan que promocion¨® Dentro del laberinto: ¡°El lugar en el que todo parece posible, pero nada es lo que parece¡±. Como muestra de ello, basta con echar un vistazo a esta farsa publicada en BuzzFeed el pasado abril y en la que Obama afirma que Trump es ¡°un completo idiota¡±.
El alter ego del expresidente de Estados Unidos en esta recreaci¨®n es el actor y cineasta Jordan Peele, director de la oscarizada D¨¦jame salir y cu?ado de Jonah Peretti, fundador de BuzzFeed. Ambos idearon este experimento para advertir de los potenciales peligros de aplicar la inteligencia artificial (IA) para fabricar noticias falsas en formato audiovisual, lo que se ha bautizado como deepfakes, es decir, mentiras profundas.
Seg¨²n Francisco Javier Ord¨®?ez, director de Inteligencia Artificial en StyleSage, este v¨ªdeo es una prueba de concepto que ilustra sobre las posibilidades de una serie de algoritmos que se conocen como modelos generativos y que son capaces de memorizar cu¨¢les son las caracter¨ªsticas de una fuente de datos para despu¨¦s crear nuevos ejemplos de esos datos desde cero. ¡°De esta forma, si la fuente de datos son im¨¢genes de Obama, el algoritmo es capaz de generar las expresiones y gestos faciales necesarios para simular un discurso que no existe¡±, apunta Ord¨®?ez.
Pero detr¨¢s de la manipulaci¨®n hay un arduo y lento trabajo. No en vano, esos 70 segundos del v¨ªdeo de BuzzFeed necesitaron m¨¢s de 56 horas de renderizaci¨®n, un procesamiento autom¨¢tico posterior a la edici¨®n que en este caso fue realizada con Adobe After Effects y FakeApp, el software de inteligencia artificial que gener¨® pol¨¦mica a principios de a?o porque sus t¨¦cnicas de deep learning se usaron para sustituir las caras de actrices de pel¨ªculas porno por las de famosas de Hollywood en v¨ªdeos que despu¨¦s se compart¨ªan en Reddit.
Por muy bueno que sea el resultado, un deepfake puede ser detectado r¨¢pidamente por alguien familiarizado con los modelos generativos y las t¨¦cnicas del style transfer que replican los movimientos de un rostro en otro distinto. Por ejemplo, Jorge Mu?oz, socio cofundador de Serendeepia, saca a relucir aspectos de las im¨¢genes que no parecen naturales, como el movimiento del cuerpo y la entonaci¨®n de la voz, aunque reconoce que ya existen montajes muy realistas, como los llamados deep video portraits, que superan esas limitaciones. ¡°El mayor problema de estas t¨¦cnicas es que requieren una gran cantidad de datos para poder entrenarlas, por lo que hoy en d¨ªa ¨²nicamente veremos contenidos as¨ª sobre personas famosas de las que se pueden encontrar millones de horas de v¨ªdeo de alta calidad en Internet¡±, asegura.
Aun as¨ª, Ra¨²l Arrabales, director de Inteligencia Artificial en Psicob¨®tica, matiza que realizar un montaje con un busto parlante es mucho m¨¢s f¨¢cil que con otro tipo de escenas en las que la complejidad es mayor, lo cual propicia la llegada de los contenidos en v¨ªdeo al ¨¢mbito de las fake news, ya que aunque un experto puede notar que el mensaje de Obama es falso, ¡°para el gran p¨²blico puede pasar por verdadero¡±. Para comprobarlo, hemos mostrado el trabajo de BuzzFeed a Julio Montes, cofundador de Maldito Bulo, quien manifiesta su preocupaci¨®n as¨ª de tajante: ¡°Si te llega este v¨ªdeo, te lo cuelan fijo. No hay duda de que el peligro es claro, pero la cuesti¨®n es que ahora mismo los malos, los que desinforman, los que ganan pasta o buscan influir ideol¨®gicamente con desinformaciones ni siquiera necesitan ese nivel de perfecci¨®n para conseguir su objetivo¡±.
Seg¨²n Montes, hoy en d¨ªa hay dos formatos principales a la hora de divulgar un bulo: las im¨¢genes con capturas de titulares inventados y los audios falsos con testimonios sobre algo malo que va a pasar (como una amenaza de atentado). ¡°De momento, lo que recibimos para verificar no llega a la perfecci¨®n del montaje de Obama, pero los deepfakes se van a generalizar y debemos estar preparados para hacerles frente, algo para lo que se necesita la uni¨®n de periodistas, ingenieros, universidades y otras plataformas¡±. De entrada, hace unos d¨ªas la FAPE traslad¨® al Ministerio de Trabajo la propuesta de incluir una asignatura de periodismo en los cuatro cursos de la ESO para ense?ar a distinguir entre noticias reales y falsas.
- Buenos y malos con las mismas armas
Los propios algoritmos de deep learning pueden usarse para detectar deepfakes de forma autom¨¢tica e incluso para generar ¡°falsificaciones de laboratorio¡± que sirvan como ejemplares de entrenamiento para detectores de v¨ªdeos, im¨¢genes y documentos falsos. De esta forma se podr¨¢n bloquear dichos contenidos o al menos advertir al consumidor final de que est¨¢ viendo algo generado por ordenador. Sin embargo, esto puede derivar en una competici¨®n constante entre modelos que generan v¨ªdeos hiperrealistas y modelos que detectan esos v¨ªdeos generados. ¡°Aqu¨ª la clave est¨¢ en que la red que publica los contenidos tenga m¨¢s capacidad de c¨®mputo, mejores algoritmos y mejor entrenamiento que los autores de los contenidos maliciosos. Como en otros aspectos de la ciberseguridad, se establece una carrera entre los buenos y los malos y el que est¨¦ m¨¢s avanzado tecnol¨®gicamente tendr¨¢ ventaja sobre el otro¡±, comenta Arrabales.
Rizando el rizo, Ord¨®?ez apunta que una de las consecuencias de que los modelos generativos tengan dicha capacidad de imitaci¨®n es que se pueden configurar para enga?ar a otros algoritmos, generando datos que no puedan detectarse como falsos. Esto tiene su lado oscuro en otros muchos ¨¢mbitos, no solo en el de las fake news, ya que el poder generar datos sint¨¦ticos indistinguibles de los datos reales puede usarse para enga?ar algoritmos de IA que est¨¦n integrados en sistemas cr¨ªticos y de seguridad. La t¨¦cnica para explotar esta vulnerabilidad se ha bautizado como ¡°ataque antag¨®nico¡± y seg¨²n Ord¨®?ez podr¨ªa emplearse para burlar controles autom¨¢ticos de seguridad (como los de los aeropuertos) o enga?ar sistemas cr¨ªticos basados en IA (como el sistema de control de un coche aut¨®nomo, haciendo que el veh¨ªculo no reconozca las se?ales correctamente).
En las tripas de un ¡®deepfake¡¯
Las m¨¢s recientes revoluciones de la inteligencia artificial (IA) proceden de unos algoritmos concretos: las redes neuronales profundas o deep learning. Seg¨²n Francisco Javier Ord¨®?ez, director de IA en StyleSage, estos algoritmos est¨¢n teniendo un ¨¦xito sin precedentes en la manipulaci¨®n de im¨¢genes, v¨ªdeo, audio y texto debido fundamentalmente a los avances en tres ¨¢reas.
1. Procesamiento computacional. Alrededor de 2012, los ordenadores empezaron a usar para la IA los chips gr¨¢ficos que tradicionalmente se han usado para procesamiento de v¨ªdeo (conocidas como GPU), lo cual propici¨® un aumento exponencial en la capacidad computacional de las m¨¢quinas.
2. Datos disponibles. La llegada del big data supuso un grand¨ªsimo impulso para los algoritmos basados en redes neuronales, dado que aprenden mejor a medida que tienen m¨¢s datos disponibles.
3. Mejoras algor¨ªtmicas. Tambi¨¦n alrededor de 2012, una serie de optimizaciones en los algoritmos, propuestas por diversos investigadores, hizo posible que estos pudieran hacer uso de todos los datos disponibles actualmente.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.