Cualquiera puede poner tu cara en un v¨ªdeo porno
La inteligencia artificial facilita que se creen v¨ªdeos falsos. Por ahora, las v¨ªctimas son mujeres que se ven a s¨ª mismas como protagonistas de una pel¨ªcula porno que nunca rodaron
Scarlett Johansson ya se ha resignado: ¡°Nada puede impedir que alguien corte y pegue mi imagen o la de otra persona en otro cuerpo y haga que se vea tan realista como quiera¡±, explica en una entrevista en The Washington Post. La actriz habla con conocimiento de causa. Recientemente se han viralizado varios v¨ªdeos porno supuestamente protagonizados por ella. Los intereses son claros: aprovechar el morbo que despierta ver a un personaje p¨²blico manteniendo relaciones sexuales para aumentar las visitas y hacer m¨¢s dinero. Pero pasan por alto un ¨ªnfimo detalle: la persona que aparece en ese v¨ªdeo no es Johansson, sino el resultado de utilizar la inteligencia artificial para crear v¨ªdeos falsos e incre¨ªblemente realistas.
Como toda nueva tendencia, ya tiene su nombre en ingl¨¦s: deep fakes. Y son el resultado de utilizar la IA para mimetizar la imagen original (el v¨ªdeo porno) con la falsificada (la cara de Scarlett Johansson) de forma que la luz se iguale en ambos archivos y se refracte de forma natural. Tambi¨¦n se utiliza para dar movimiento a las im¨¢genes fijas. As¨ª, se pueden trasladar las expresiones faciales y corporales de una persona a otra, tal y como sucede en este v¨ªdeo de Barack Obama que Buzzfeed cre¨® de la nada para demostrar c¨®mo de f¨¢cil es hacer decir al expresidente de los Estados Unidos lo que t¨² quieras.
Por ahora, esta pr¨¢ctica est¨¢ da?ando m¨¢s a las mujeres. Las caras de actores y otros hombres famosos se insertan en los v¨ªdeos falsos como una broma: hay un v¨ªdeo que muestra la cara de Nicolas Cage superpuesta a la de Donald Trump durante un discurso. Est¨¢ el de Barack Obama hablando sobre fake news. Pero los v¨ªdeos falsos de mujeres son predominantemente pornogr¨¢ficos, algo que resulta mucho m¨¢s denigrante y que genera sentimientos de humillaci¨®n y abuso. "Las falsificaciones son expl¨ªcitamente detalladas, publicadas en sitios populares de pornograf¨ªa y cada vez m¨¢s dif¨ªciles de detectar", explican en The Lily.
Uno de los v¨ªdeos de Johansson ha sido visto m¨¢s de 1,5 millones de veces. Pero no es la ¨²nica a la que le ha pasado. The Lily asegura que la cr¨ªtica de medios Anita Sarkeesian, que fue atacada por sus cr¨ªticas feministas de la cultura pop y los videojuegos, fue insertada en un v¨ªdeo porno hardcore que se ha visto m¨¢s de 30.000 veces en Pornhub. Y eso que este portal de v¨ªdeos porno prohibi¨® los deep fakes en febrero del a?o pasado. Supuestamente, Google tambi¨¦n sac¨® esas im¨¢genes de sus resultados de b¨²squeda. Pero siguen ah¨ª.
Y aunque las famosas sean la diana preferida por el momento, esto es algo que puede pasarle a cualquiera. El programador solo necesita im¨¢genes y v¨ªdeos de la v¨ªctima que le sirvan de referencia y los puede encontrar f¨¢cilmente en cualquier red social que tenga un perfil p¨²blico. Hay foros sobre deep fakes donde se re¨²ne toda una comunidad de usuarios dispuestos a generar este tipo de contenido.
- Y no hay forma de combatirlo
Por el momento, el vac¨ªo legal existente facilita que este contenido prolifere. Y, aunque hay algunas iniciativas privadas orientadas a combatirlo, por el momento no han resultado efectivas. La ¨²nica opci¨®n en la que se est¨¢ trabajando es en desarrollar un sistema para detectar las im¨¢genes manipuladas. La misma tecnolog¨ªa que facilita la existencia de estos v¨ªdeos hiperrealistas pero falsos es la que hace posible que cualquier ciudadano de a pie pueda detectarlos con un smartphone. Varias startups han desarrollado aplicaciones m¨®viles que utilizan algoritmos para averiguar si una fotograf¨ªa o un v¨ªdeo han sido manipulados, como Serelay y Truepic, que utilizan algoritmos que verifican autom¨¢ticamente las fotos cuando se captan.
Su idea es convertir alg¨²n d¨ªa su tecnolog¨ªa de verificaci¨®n en un est¨¢ndar de la industria para las c¨¢maras digitales. Si esto se aplicara a Facebook o Snapchat la repercusi¨®n ser¨ªa mayor. "Una imagen inalterada publicada en las redes sociales podr¨ªa recibir autom¨¢ticamente una marca de verificaci¨®n, como una credencial de verificaci¨®n de Twitter, lo que indica que coincide con una imagen en su base de datos", explica el MIT.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.