La otra cara del ¡®deepfake¡¯: un intercambio de rostros para proteger a los m¨¢s vulnerables
El ¡®deep learning¡¯ permite que las personas del colectivo LGBTQI que cuentan su historia en el documental Welcome to Chechnya lo hagan mirando a c¨¢mara, sin pixelados, pero con la cara de otra persona
En Chechenia, formar parte del colectivo LGBTQI puede convertirse en una sentencia de muerte, o con algo de suerte, servir de pase a una galer¨ªa de los horrores que incluye exorcismos religiosos, ingresos forzados en hospitales psiqui¨¢tricos, encarcelamientos y torturas. El propio presidente de la rep¨²blica, Razam Kadyrov, ha expresado p¨²blicamente su apoyo a que sean sus propios familiares quienes la ejecuten. ¡°Si hubiera de estas personas en Chechenia, las fuerzas de seguridad no tendr¨ªan que hacer nada con ellos, porque sus familiares les enviar¨ªan a un lugar de no retorno¡±, ha llegado a afirmar su secretario de prensa.
Mostrar las atrocidades que ocurren en este contexto y en este siglo, y ante la general pasividad de la comunidad internacional, era el objetivo de David France en su ¨²ltimo documental, Welcome to Chechnya. El director, conocido por sus trabajos en The Death and Life of Martha P. Johnson y History of a Plague, quer¨ªa adem¨¢s dar voz a las v¨ªctimas sin aumentar su ya extrema vulnerabilidad. Los encargados de protegerles han sido uno de los desarrollos tecnol¨®gicos m¨¢s demonizados del momento: los deepfakes.
France no quer¨ªa grabar a los supervivientes en medio de la oscuridad o con caras pixeladas. Cre¨ªa que esto podr¨ªa restarles humanidad. ¡°Lo que les propuse, y fueron suficientemente valientes para aceptar, fue que me dejaran grabarles sin restricciones, con la promesa de que despu¨¦s encontrar¨ªa alguna manera de ocultarles¡±, explica en el dosier del documental. El encargado de hacer realidad este compromiso fue Ryan Lanney, fundador de la compa?¨ªa de efectos especiales 300Ninjas.
Para proteger la identidad de los entrevistados en el documental, se desarrollaron deepfakes que reemplazaban sus rostros por los de activistas LGBTQ de Estados Unidos. El trabajo de Lanney redefine el discurso siniestro y alarmante que por ahora domina todo lo relacionado con los deepfakes, a los que propone rebautizar como tecnolog¨ªas de reemplazo facial. ¡°Los deepfakes son inherentemente no consentidos. La persona que se introduce en el v¨ªdeo no tiene ni idea de lo ocurrido. En contraste, la gente que forma parte del documental ten¨ªa una estrecha relaci¨®n con la compa?¨ªa de producci¨®n¡±.
Un escudo computacional
Como en cualquier proyecto de deep learning, la recopilaci¨®n de datos fue fundamental. El punto de partida para 300Ninjas era las im¨¢genes originales, ya cortadas y editadas. ¡°Revisamos la pel¨ªcula toma a toma, tomando en cuenta la iluminaci¨®n, la luz exterior y la interior¡±, precisa. Despu¨¦s, se rodaron las im¨¢genes de los 24 activistas que donar¨ªan sus caras para proteger las de los supervivientes. ¡°Les sentamos en diferentes escenarios que cuadraban con la iluminaci¨®n y los ¨¢ngulos del filme¡±.
El resultado son las mismas declaraciones, expresando las mismas emociones desde otros rostros. ¡°Tuvimos mucho cuidado de hacer que no fuera perfecto¡±, matiza el experto. Esto se concreta en un leve difuminado en los bordes a cada una de las caras camufladas. ¡°Lo hicimos por dos motivos. Es nuestra manera de decir ¡®no estamos tratando de enga?arte¡¯ y de que se entienda el peligro en que se encuentra esta gente¡±.
La misma magnitud de esos riesgos exig¨ªa garantizar que en ning¨²n caso estas im¨¢genes permitieran identificar a los verdaderos narradores. En este contexto, los deepfakes se convierten en una m¨¢scara excepcionalmente opaca, puesto que en las im¨¢genes finales no queda ni rastro de los p¨ªxeles originales. ¡°No hay un filtro que puedas deshacer¡±. Con las voces tampoco hay nada que hacer, puesto que fueron reinterpretadas por actores de doblaje. ¡°Nos gustar¨ªa tener tambi¨¦n tecnolog¨ªa para esto en el futuro¡±, comenta Lanney.
Cuando ponemos a alguien en penumbra para ocultar su identidad, o detr¨¢s de una pared o solo enfocamos sus manos, perdemos much¨ªsima informaci¨®n Ryan Lanney, 300Ninjas
El documental,que se ha estrenado ya en HBO en Estados Unidos, pas¨® antes por Sundance y la Berlinale. Obtuvo buenas cr¨ªticas en ambos festivales ¨C y despert¨® con su uso de los deepfakes el inter¨¦s de otros documentalistas. ¡°Este sistema permite contar una historia mucho m¨¢s humana¡±, explica Lanney. ¡°Cuando ponemos a alguien en penumbra para ocultar su identidad, o detr¨¢s de una pared o solo enfocamos sus manos, perdemos much¨ªsima informaci¨®n. Adem¨¢s, pienso que es una representaci¨®n m¨¢s honesta que recurrir a un actor¡±. El otro punto fuerte es la solidez con que el deepfake enmascara al hablante. ¡°Una persona que est¨¢ en peligro puede mostrarse m¨¢s dispuesta a dar su testimonio si est¨¢ segura de que su identidad est¨¢ a salvo¡±.
El experto ha dedicado hasta ahora su carrera a trabajar en el desarrollo de efectos especiales para ficci¨®n -taquillazos incluidos-, pero tras su experiencia ideando las tecnolog¨ªas necesarias para Welcome to Chechnya aspira a mantenerse en esta vertiente ¡°m¨¢s c¨ªvica¡±. No duda que seguir¨¢n us¨¢ndose para fines negativos, pero tambi¨¦n est¨¢ seguro de que seguir¨¢n siendo una herramienta narrativa m¨¢s en la industria de los efectos especiales. ¡°Queremos tener un di¨¢logo honesto con la audiencia y con las personas implicadas, por eso pienso que el t¨¦rmino fake no captura lo que hacemos¡±. Por lo que respecta al futuro y al potencial de las nuevas t¨¦cnicas, la opini¨®n de Lanney es que todo es posible. ¡°Hace cosa de diez a?os, un estudiante ense?¨® a volar un p¨¢jaro hecho con gr¨¢ficos computerizados. Cre¨® la estructura ¨®sea y las funciones aerodin¨¢micas de las alas y le dijo que aprendiera a volar. Es dif¨ªcil imaginar qu¨¦ no ser¨ªamos capaces de hacer solo con que alguien pase tiempo entrenando a una m¨¢quina¡±.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.