Llega el ¡®vishing¡¯: ?hablas con tu madre o con una m¨¢quina que ha aprendido a imitarla?
La inteligencia artificial ya puede clonar nuestra voz a partir de una peque?a muestra de audio, lo que ha agudizado el ingenio de los que intentan enga?arnos con estafas por tel¨¦fono.
Reino Unido, marzo de 2019. El responsable de la subsidiaria brit¨¢nica de una compa?¨ªa alemana descuelga el tel¨¦fono y al otro lado escucha la voz de su director ejecutivo con una orden tan clara como urgente: ¡°Hay que hacer una transferencia de 220.000 euros a un proveedor h¨²ngaro en menos de una hora¡±. Tras cumplir la petici¨®n, recibe una segunda llamada para corroborar si se ha hecho la operaci¨®n. Y despu¨¦s una tercera que ordena una nueva transferencia, pero esta vez la pantalla del tel¨¦fono desvela que el interlocutor llama desde Austria. Aunque sigue reconociendo la voz de su jefe, esa localizaci¨®n levanta las sospechas del empleado y descubre que ha sido enga?ado. Pero ya es demasiado tarde para recuperar esos 220.000 euros que finalmente cubri¨® Euler Hermes, la aseguradora que dio a conocer el caso el pasado agosto y que considera que los delincuentes utilizaron un software basado en inteligencia artificial (IA) para recrear la voz del director de la compa?¨ªa estafada.
¡®Deepfakes¡¯ de audio
?Hasta qu¨¦ punto es sencillo suplantar una identidad de esta forma? Realizar desde cero un proyecto as¨ª es complicado, pero existen m¨²ltiples grupos de investigaci¨®n sobre transferencia de estilo en se?ales de voz y es habitual que el c¨®digo de estos sistemas est¨¦ p¨²blicamente disponible porque el entorno de I+D en IA es muy abierto, as¨ª que alguien con los conocimientos adecuados de deep learning podr¨ªa acceder a esos trabajos y reutilizarlos, seg¨²n explica Ra¨²l Arrabales, cofundador y director de negocio de Serendeepia. ¡°Esto tiene la ventaja de acelerar mucho los ciclos de innovaci¨®n, pero tambi¨¦n implica peligros como el uso malicioso de estas herramientas¡±, a?ade.
Al igual que ocurre con los videomontajes hiperrealistas o deepfakes, para realizar con ¨¦xito una suplantaci¨®n de identidad por medio de la voz es necesario contar son suficientes muestras de audio de la persona a la que se quiere imitar. ¡°Por eso es com¨²n que s¨®lo se generen audios falsos con las voces de personajes muy populares, como actores y pol¨ªticos famosos¡±, afirma Arrabales.
Sin embargo, este experto puntualiza que ya es posible usar software comercial, como el de Lyrebird, para generar voz sint¨¦tica a partir de una peque?a muestra de pocos minutos de audio. Con esta aplicaci¨®n, el periodista Ashlee Vance, conocido por escribir la biograf¨ªa de Elon Musk, consigui¨® enga?ar a su propia madre, que no distingui¨® la voz real de su hijo de otra generada digitalmente.
¡°No obstante, es importante tener en cuenta que estas pruebas se hacen en conversaciones telef¨®nicas, donde la se?al de voz sufre un filtrado que hace m¨¢s dif¨ªcil que el o¨ªdo humano detecte ciertos cambios¡±, puntualiza Arrabales.
En el entorno de la seguridad, las campa?as maliciosas que usan el tel¨¦fono se conocen como vishing, contracci¨®n de los t¨¦rminos ingleses voice phishing. ?Podr¨ªan multiplicarse estos ataques a medida que surgen aplicaciones con las que no es necesario ser un experto en algoritmos ni aprendizaje autom¨¢tico para recrear voces a partir de una muestra?
¡°Desde el momento en el que un sistema de IA tiene capacidad para analizar una voz grabada y emular su tono, timbre, frecuencia y otros par¨¢metros asociados, ese audio resultante puede usarse con los m¨¢s diversos fines. Y como siempre ha habido fraudes mediante llamadas telef¨®nicas, probablemente los nuevos avances se aplicar¨¢n a las estafas¡±, se?ala Elena Gonz¨¢lez-Blanco, experta en IA y tecnolog¨ªa ling¨¹¨ªstica y directora general en Europa de la aseguradora Coverwallet.
A la caza del ¡®vishing¡¯
De todos modos, Gonz¨¢lez-Blanco revela que existen herramientas para desenmascarar a los malos que ya se est¨¢n usando en el sector de los seguros para averiguar si alguien trata de suplantar a otra persona cuando da parte de un siniestro. ¡°Nuestra voz es una huella biom¨¦trica que queda registrada al hacer la grabaci¨®n necesaria para contratar una p¨®liza y que despu¨¦s puede usarse para comprobar la identidad del cliente.
Mediante una combinaci¨®n de t¨¦cnicas, algunas aseguradoras aplican la IA a esa muestra para obtener variaciones sobre la misma y saber c¨®mo hablar¨ªamos en un estado de nerviosismo o ansiedad porque acabamos de tener un accidente o sufrir cualquier otro percance. As¨ª comprueban autom¨¢ticamente si la persona que llama es quien dice ser¡±, comenta la experta. Aun as¨ª, Gonz¨¢lez-Blanco aboga por corroborar la identidad de los usuarios con una doble autenticaci¨®n y a?adir m¨¢s pruebas a ese reconocimiento autom¨¢tico mediante la voz, como un dato de geolocalizaci¨®n o el env¨ªo de imagen en tiempo real.
En el caso de las estafas que recrean voces mediante algoritmos, lo m¨¢s indicado es usar precisamente la misma tecnolog¨ªa que los ciberdelincuentes, porque si una IA es capaz de generar un audio falso con el uso de redes de neuronas profundas, tambi¨¦n tiene la potencia necesaria para distinguir una voz genuina de una producida digitalmente. ¡°De hecho, la IA puede tener mejor capacidad de discriminaci¨®n que un humano si est¨¢ entrenada espec¨ªficamente para esta tarea¡±, matiza el director de Serendeepia.
De igual forma que existen iniciativas que preparan a las redes neuronales para detectar caras falsas, hay proyectos dirigidos a luchar contra el vishing. Se trata de los llamados ASV (Automatic Speaker Verification). En este sentido, Google liber¨® recientemente un conjunto de datos con habla sintetizada para que los investigadores consigan mejores detectores. ¡°Como cient¨ªficos e ingenieros tenemos la responsabilidad de desarrollar las contramedidas adecuadas para evitar que la misma tecnolog¨ªa que se usa con fines leg¨ªtimos sea empleada con objetivos maliciosos. Ya es posible pensar que cualquier tel¨¦fono inteligente que se venda en un futuro cercano incorpore de serie sistemas de seguridad como la verificaci¨®n autom¨¢tica del hablante¡±, concluye Arrabales.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.