Microsoft estrena un arma para combatir ¡®deepfakes¡¯ en las elecciones de EE UU
Los v¨ªdeos manipulados con inteligencia artificial alcanzan un nivel de realismo dif¨ªcil de detectar para el ojo humano.
Los pr¨®ximos meses se antojan un c¨®ctel explosivo para las noticias falsas. Sobre todo en Estados Unidos. All¨ª, a la tensi¨®n que genera la pandemia se le a?ade el horizonte electoral, que este a?o espera una campa?a particularmente crispada y barrosa. Si las anteriores elecciones de Estados Unidos, sirvieron para poner en boca de todos el concepto de fake news, las venideras podr¨ªan popularizar el de deepfakes.
Estos v¨ªdeos, con im¨¢genes reales, se modifican artificialmente mediante un algoritmo y suelen manipular el discurso de una persona p¨²blica. Entre los esfuerzos que las tecnol¨®gicas est¨¢n haciendo para combatir la desinformaci¨®n en esta coyuntura preelectoral en Estados Unidos, Microsoft ha dado un paso importante. Ha presentado una plataforma aparentemente capaz de detectar los deepfakes.
La inteligencia artificial que hay tras estos v¨ªdeos manipulados hace que sea dif¨ªcil identificar su falsedad. Se consigue que un texto le¨ªdo por un actor pase por unas declaraciones de Barack Obama, como ocurri¨® en un v¨ªdeo que trataba de concienciar sobre esta t¨¦cnica. Pero tambi¨¦n es posible cambiar el rostro del protagonista de un v¨ªdeo por el de otra persona. As¨ª, Jim Carrey sustituye a Jack Nicholson en este deepfake de El resplandor.
La herramienta Microsoft Video Authenticator usa su propia inteligencia artificial parar analizar la veracidad de un v¨ªdeo. ¡°Eval¨²a la existencia de zonas de la imagen en las que pueda existir un cambio en las texturas, zonas difuminadas por la superposici¨®n de elementos, consistencia de los bordes, alteraci¨®n de los colores¡±, explica Alberto Pinedo, director de Tecnolog¨ªa de Microsoft en Espa?a. Se buscan ¡°rastros de una modificaci¨®n sobre el contenido original que normalmente escapan al ojo humano¡±.
En cada frame, el algoritmo de Microsoft estima una probabilidad de que las im¨¢genes sean reales o manipuladas. La herramienta sirve tambi¨¦n para comprobar la autenticidad de fotograf¨ªas. En el caso de los v¨ªdeos, la comprobaci¨®n se hace en tiempo real a lo largo de la duraci¨®n del metraje.
Por ahora, Microsoft Video Authenticator estar¨¢ disponible a trav¨¦s de la iniciativa Reality Defender 2020 (RD2020), una plataforma que re¨²ne a entidades acad¨¦micas, como la Universidad de Berkeley, y empresas de tecnolog¨ªa, Google, Twiter, la propia Microsoft, para combatir la desinformaci¨®n. Adem¨¢s, la compa?¨ªa colaborar¨¢ con la BBC en su Project Onion, destinado a combatir las fake news de forma global y con la vista puesta en las pr¨®ximas elecciones de Estados Unidos.
Cada vez m¨¢s f¨¢cil hacer un deepfake pero no detectarlo
El sistema de Microsoft se ha creado gracias al empleo de dos bases de datos p¨²blicas: Face Forensic++, para entrenar el algoritmo, y DeepFake Detection Challenge Dataset, para probar su eficacia. Aunque la compa?¨ªa admite que su Video Authenticator no es el arma definitiva contra los deepfakes. ¡°Se trata de una plataforma en continua evoluci¨®n y aprendizaje para mejorar su precisi¨®n. Hay que tener en cuenta que nos enfrentamos a mecanismos que cada d¨ªa mejoran para crear v¨ªdeos falsos de mejor calidad¡±, destaca Pinedo.
El f¨¢cil acceso, desde la nube, a la tecnolog¨ªa deep learning (las redes neuronales necesarias para crear estas manipulaciones) permite que casi cualquiera pueda perpetrar un deepfake. En YouTube ya proliferan este tipo de v¨ªdeos. En muchas ocasiones son bromas inofensivas, simples memes en formato audiovisual, como este clip en el que Jon Nieve pide perd¨®n por la temporada 8 de Juego de Tronos. Pero tambi¨¦n pueden formar parte de bulos intencionados.
El origen de los deepfakes puede ser cualquiera, como apunta Pinedo, aunque subraya la incidencia de las redes sociales y las plataformas de v¨ªdeo online. Precisamente estos dos espacios han sido veh¨ªculos de difusi¨®n, en ocasiones viral, de bulos y desinformaci¨®n. Un problema que con la manipulaci¨®n de v¨ªdeos se complica.
Y es que detectarlos a simple vista no es sencillo. Desde el Massachusetts Institute of Technology (MIT) proponen fijarse en algunos detalles para tratar de identificar un deepfake. Se trata de descubrir irregularidades en la piel de la cara, en las mejillas y la frente, en el color y el tama?o de los labios, el corte de pelo. ?Hay algo raro en ello? Y en el parpadeo, ?es demasiado frecuente o apenas existe? Hay otros aspectos a los que prestar atenci¨®n: si detectamos fallos evidentes, como un cuello de camisa que en el lado izquierdo es de una forma y en el derecho, de otra, deben saltar las alarmas.
Pero reconocer este tipo de detalles requiere de un examen minucioso, inviable en el d¨ªa a d¨ªa. Sobre todo al ritmo que se consume el contenido digital hoy. De ah¨ª que algunas tecnol¨®gicas con peso en Internet hayan dado pasos para combatir los v¨ªdeos manipulados de forma automatizada. Google lanz¨® el pasado a?o una base de datos con 3.000 deepfakes generados con inteligencia artificial, para contribuir a la investigaci¨®n en este campo. Por su parte, Facebook ha estimulado una competici¨®n para detectar deepv¨ªdeos manipulados. Precisamente la base de datos que se emplea como prueba en este concurso ha sido la que Microsoft ha empleado para testar su algoritmo.
Puedes seguir a EL PA?S TECNOLOG?A RETINA en Facebook, Twitter, Instagram o suscribirte aqu¨ª a nuestra Newsletter.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.