¡°Todos podemos ser v¨ªctimas y los da?os son irreparables¡±: c¨®mo los ¡®deepfakes¡¯ han inundado el planeta
Las im¨¢genes o v¨ªdeos falsos saltan del porno, que acapara el 96% de las creaciones, a sofisticadas formas de fraude y manipulaci¨®n
Los deepfakes, reproducciones hiperrealistas que la inteligencia artificial ha llevado a l¨ªmites inauditos de accesibilidad y difusi¨®n, lo inundan todo, como demuestra el caso de las recreaciones falsas de desnudos de adolescentes en Almendralejo (Badajoz) esta semana. ¡°Todos podemos ser v¨ªctimas. Internet es la selva. No hay control y no es un juego: es un delito¡±, advierte la presidenta de la federaci¨®...
Los deepfakes, reproducciones hiperrealistas que la inteligencia artificial ha llevado a l¨ªmites inauditos de accesibilidad y difusi¨®n, lo inundan todo, como demuestra el caso de las recreaciones falsas de desnudos de adolescentes en Almendralejo (Badajoz) esta semana. ¡°Todos podemos ser v¨ªctimas. Internet es la selva. No hay control y no es un juego: es un delito¡±, advierte la presidenta de la federaci¨®n extreme?a de padres y madres de alumnos Freapa, Maribel Rengel. El informe m¨¢s citado, realizado por Deeptrace, rastre¨® hasta medio mill¨®n de archivos falsos en la red mundial con un crecimiento de casi el 100% cada seis meses. Pero es solo el trabajo de una entidad. El volumen real se desconoce. S¨ª se sabe que el 96% es pornograf¨ªa y que estas creaciones han saltado del ¨¢mbito de la imagen a la voz, a los textos, a los documentos y al reconocimiento facial, o la combinaci¨®n de todos, hasta convertirse en uno de los vectores emergentes de fraude m¨¢s preocupantes a partir de una tecnolog¨ªa a¨²n sin regular.
El Instituto Europeo de Normas de Telecomunicaciones (ETSI, por sus siglas en ingl¨¦s) advierte en uno de los informes m¨¢s completos y actualizados de los peligros del ¡°cada vez m¨¢s f¨¢cil¡± uso de la inteligencia artificial en la creaci¨®n de archivos falsos. La ETSI, formada por m¨¢s de 900 entidades de todo ¨¢mbito, alerta: ¡°Debido a los avances significativos en la aplicaci¨®n de la inteligencia artificial a la generaci¨®n y modificaci¨®n de datos, han surgido nuevas amenazas que pueden conducir a riesgos sustanciales en diversos entornos que van desde la difamaci¨®n personal y la apertura de cuentas bancarias utilizando identidades falsas (mediante ataques a los procedimientos de autenticaci¨®n biom¨¦trica) hasta campa?as para influir en la opini¨®n p¨²blica¡±. Estos son los principales objetivos:
Pornograf¨ªa. Danielle Citron, profesora de derecho en la Universidad de Boston y autora de Cr¨ªmenes de odio en el ciberespacio (Hate crimes in cyberspace), afirma: ¡°La tecnolog¨ªa deepfake se usa como arma contra las mujeres al insertar sus rostros en la pornograf¨ªa. Es aterrador, vergonzoso, degradante y silenciador. Los v¨ªdeos de sexo deepfake dicen a las personas que sus cuerpos no son suyos y pueden dificultar sus relaciones en l¨ªnea, la obtenci¨®n o mantenimiento de un trabajo o que se sientan seguras¡±.
Rengel lo comparte tras el caso que ha afectado a varios institutos de su comunidad. ¡°La sensaci¨®n es de vulnerabilidad y es muy dif¨ªcil de controlar. Los da?os son irreparables. Pueden arruinar la vida de una ni?a¡±, afirma la representante extreme?a para exigir, de forma urgente, un pacto de Estado que regule el uso de esta tecnolog¨ªa.
Estos ataques consisten en la difusi¨®n de v¨ªdeos, im¨¢genes, audio o texto falsos en las redes sociales para arruinar la reputaci¨®n de la v¨ªctima o humillarla. El informe de Deeptrace calculaba el n¨²mero de reproducciones de este material en m¨¢s de 134 millones. Mujeres conocidas han sido v¨ªctima de estas pr¨¢cticas desde hace a?os. La cantante Rosal¨ªa ha sido la ¨²ltima espa?ola famosa de una larga lista internacional que encabezaron Emma Watson y Natalie Portman.
Pero como advierte Rengel, ¡°nadie est¨¢ libre¡±. A golpe de clic, en plataformas en abierto o en sistemas de mensajer¨ªa cifrada se pueden encontrar aplicaciones y p¨¢ginas que ofrecen ¡°desnudar a cualquiera¡± en segundos. Advierten de que es para mayores de 18 y que no se pueden usar fotos de una persona sin su consentimiento, aunque no lo comprueban, descargan la responsabilidad en el usuario y afirman que el objetivo es ¡°el entretenimiento¡±.
El creador de contenidos Brandon Ewing, conocido como Atrioc, fue sorprendido en directo a principios de a?o con una p¨¢gina de deepfakes pornogr¨¢ficos con recreaciones falsas de sus colegas Pokimane, Maya Higa y Blaire (pide eludir el apellido para proteger a la familia), conocida como QTCinderella. Ewing aleg¨® que la consulta fue ¡°accidental¡±, pero la reacci¨®n de las v¨ªctimas fue demoledora.
Higa afirm¨® sentirse ¡°asqueada, vulnerable y ultrajada¡±. QTCinderella public¨® un impactante v¨ªdeo de repulsa: ¡°Aunque no es mi cuerpo, bien podr¨ªa serlo. Fue la misma sensaci¨®n de una violaci¨®n. ?La constante explotaci¨®n y cosificaci¨®n de las mujeres agota!¡±. Pokimane record¨® la necesidad de ¡°consentimiento para determinadas pr¨¢cticas, como sexualizar a las mujeres¡±.
La Oficina Federal de Investigaci¨®n de Estados Unidos (FBI) ha alertado del aumento de ciberdelincuentes que emplean las im¨¢genes y v¨ªdeos de las redes sociales para elaborar deepfakes con los que acosar y extorsionar a las v¨ªctimas.
Bulos para influir en la opini¨®n p¨²blica. Giorgio Patrini, fundador de Deeptrace, afirma: ¡°Los deepfakes ya est¨¢n desestabilizando los procesos pol¨ªticos. Sin contramedidas defensivas, la integridad de las democracias de todo el mundo est¨¢ en riesgo¡±.
El informe de ETSI identifica estos ataques como publicaciones falsas que crean la impresi¨®n de que personas que ocupan cargos influyentes han escrito, dicho o hecho ciertas cosas. ¡°Se aplica a todos los prop¨®sitos donde hay mucho en juego y el beneficio justifica el esfuerzo desde la perspectiva de un atacante¡±, alerta la entidad. Pueden utilizarse para el desprestigio de un personaje, manipular precios, atacar a competidores, influir en la opini¨®n p¨²blica en el periodo previo a las elecciones o plebiscitos, fortalecer el alcance de una campa?a de desinformaci¨®n y como propaganda, especialmente en tiempos de guerra.
En marzo de 2022, se public¨® un video deepfake del presidente ucranio, Volod¨ªmir Zelenski, donde anunciaba la capitulaci¨®n ante la invasi¨®n rusa. La pol¨ªtica estadounidense Nancy Pelosy ha sufrido otro en el que parec¨ªa borracha, y ni Donald Trump ni Barack Obama ni el Papa ni Elon Musk se han librado de creaciones similares.
Ataques a la autenticidad. Se dirigen expl¨ªcitamente a los procedimientos de identificaci¨®n y autenticaci¨®n biom¨¦trica remota. Tales procedimientos son de uso generalizado en muchos pa¨ªses para dar a los usuarios acceso a servicios digitales, como abrir cuentas bancarias, porque reducen los costos y facilitan la contrataci¨®n de productos.
En 2022, un grupo de hackers (piratas inform¨¢ticos) denominado Chaos Computer Club ejecut¨® ataques exitosos contra procedimientos de identificaci¨®n de v¨ªdeo aplicando m¨¦todos deepfake.
Seguridad en internet. Muchos ataques se fundamentan en el error humano para acceder a los sistemas corporativos, como el reciente secuestro sufrido por el Ayuntamiento de Sevilla. Pero los archivos falsos hiperrealistas multiplican la capacidad de acceso al aportar datos falsos de dif¨ªcil identificaci¨®n. Pueden involucrar escritos con el estilo del supuesto remitente, voz y v¨ªdeos de las personas que supuestamente se comunican con las v¨ªctimas del ataque. El objetivo es que las v¨ªctimas pinchen en enlaces maliciosos, que los atacantes pueden usar para obtener credenciales de inicio de sesi¨®n o para distribuir malware (programas maliciosos).
Un gerente de banco en Hong Kong fue enga?ado en 2020 por atacantes que falsificaron la voz de un director de la entidad para lograr una transferencia de 35 millones de d¨®lares, seg¨²n inform¨® Forbes. Una compa?¨ªa de energ¨ªa en el Reino Unido tambi¨¦n sufri¨® un ataque similar un a?o antes que le cost¨® 243.000 d¨®lares.
Cine con falsos actores y guionistas. En el ¨¢rea art¨ªstica, esta tecnolog¨ªa se puede utilizar para crear contenido cinematogr¨¢fico. El sindicato SAG-AFTRA, que agrupa a 160.000 trabajadores de la industria del entretenimiento, convoc¨® una huelga en Hollywood en julio para reclamar, adem¨¢s de mejores remuneraciones, garant¨ªas de protecci¨®n ante el uso de la inteligencia artificial en las producciones.
Tanto actores como escritores demandan la regulaci¨®n de tecnolog¨ªas que pueden escribir una historia o reemplazar actores mediante el uso del deepfake, que permite replicar el f¨ªsico, voz y movimientos de una persona. La generalizaci¨®n de estas herramientas permitir¨ªa a las grandes productoras prescindir de seres humanos en la creaci¨®n de contenidos.
El actor brit¨¢nico Stephen Fry, narrador de los audiolibros de Harry Potter en el Reino Unido, ha denunciado el uso de su voz sin su consentimiento en un documental. ¡°Podr¨ªan hacerme leer cualquier cosa: desde un mensaje para asaltar el Parlamento hasta secuencias de porno duro. Todo sin mi conocimiento y sin mi permiso¡±, ha declarado.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.