La nueva ola de la desinformaci¨®n: la irrupci¨®n de los ¡®deepfakes¡¯
La autora alerta sobre el crecimiento de la m¨¢s sofisticada de las 'fake news'
En mayo de este mismo a?o, la dem¨®crata Nancy Pelosi, presidente de la C¨¢mara de Representantes estadounidense, dio una conferencia en el Center of American Progress. Unos d¨ªas m¨¢s tarde, unas im¨¢genes suyas hablando en esa conferencia con la apariencia de estar afectada por alg¨²n tipo de sustancia, se hicieron virales. Incluso el presidente, Donald Trump, no pudo resistirse a difundirlas.
De alguna manera con este v¨ªdeo se daba la bienvenida a otra dimensi¨®n nunca vista de la desinformaci¨®n pol¨ªtica, un v¨ªdeo manipulado que parece real pero no lo es, lo que ha venido a bautizarse como deepfake.
Un deepfake es un tipo de mediafake, un v¨ªdeo de una persona haciendo algo que nunca ha hecho o incluso que nunca ha dicho. Hay varios tipos de mediafakes, siendo un deepkafe el m¨¢s sofisticado de todos: un modelo computacional basado en tecnolog¨ªa deep learning (inteligencia artificial) cuyas im¨¢genes han sido generadas matem¨¢ticamente v¨ªa algoritmos a partir de fotos y v¨ªdeos de la persona a la que se quiere recrear.
Aunque los primeros deepfakes fueron creados hace unos cinco a?os, el t¨¦rmino no fue acu?ado hasta 2017 en la comunidad Reddit, populariz¨¢ndose paulatinamente desde entonces. Con el avance y la progresi¨®n sobre todo en el campo de la inteligencia artificial, no est¨¢ siendo hasta este a?o donde por primera vez nos encontramos una escala importante en la difusi¨®n de v¨ªdeos con im¨¢genes que, a simple vista, no podr¨ªamos ser capaces en discernir su autenticidad.
Nos encontramos ante la difusi¨®n de v¨ªdeos con im¨¢genes que, a simple vista, no podr¨ªamos ser capaces en discernir su autenticidad
La imparable democratizaci¨®n de la tecnolog¨ªa ha permitido que cualquier persona con acceso a cualquier programa o app de edici¨®n pueda manipular o alterar una foto o v¨ªdeo. Pero los deepfakes suben un pelda?o m¨¢s en este tipo de manipulaci¨®n por la perfecci¨®n alcanzada, y pueden convertirse adem¨¢s de, en una peligrosa arma pol¨ªtica usada para manipular la opini¨®n p¨²blica o desestabilizar los sistemas democr¨¢ticos, aunque tambi¨¦n en un peligroso instrumento que puede afectar a la integridad de otro tipo de perfiles m¨¢s an¨®nimos: como arma de revenge porn o para un uso malicioso en el terreno empresarial.
Por ello, la irrupci¨®n a escala de esta tecnolog¨ªa, adem¨¢s de alarmante, supone retos relevantes para todos. Es una nueva forma de manipulaci¨®n desconocida a la que tendremos que enfrentarnos. Como si de un juego se tratara, a partir de ahora, nada de lo que veremos en redes podremos darlo por cierto. Una nueva realidad para la industria de la informaci¨®n.
La preocupaci¨®n es importante, sobre todo para los gigantes tech. Es por eso que algunos de ellos ya han comenzando a tomar medidas y est¨¦n lanzando herramientas que posibiliten el desarrollo de aplicaciones para combatir lo que entienden puede ser su pr¨®ximo problema.
Google ha liberado algunos de sus datasets de deepfakes que ellos mismos han construido para que investigadores puedan dise?ar herramientas para su detecci¨®n. Con este mismo fin Facebook, junto con Microsoft, MIT, Berkeley y otras instituciones acad¨¦micas acaba de lanzar un ¡®Deepfake Detection Challenge (DFDC)¡¯. Adem¨¢s de empresas privadas, la norteamericana DARPA a trav¨¦s de su programa MediFor (Media Forensics) igualmente apoya con varias iniciativas c¨®mo combatir esta nueva oleada de im¨¢genes sint¨¦ticas.
A pesar de la amenaza impl¨ªcita de confusi¨®n de la realidad y estado de desinformaci¨®n generalizada, hay una buena noticia y es que no todo el mundo puede acceder, de momento, a este tipo de tecnolog¨ªa, ya que se requieren conocimientos computacionales hiperespecializados. Son ¨²nicamente los cient¨ªficos de datos expertos en deep learning los que son capaces de generar los algoritmos que los crean.
Pero no debemos olvidar que la comunidad cient¨ªfica global distribuye el conocimiento en conferencias y plataformas online donde divulgan los avances de manera abierta. A este respecto, seg¨²n Deeptrace, en 2018 fueron presentados 902 papers con avances en GAN (Generative Adversarial Networks), tecnolog¨ªa generada en 2014 y clave en la generaci¨®n de deepfakes, frente a los aproximadamente 100 de 2016, evidenciando as¨ª un imparable inter¨¦s creciente.
En 2018 hab¨ªa, seg¨²n Diffbot, 720.325 profesionales cualificados en el mundo con conocimientos y habilidades en inteligencia artificial (en Estados Unidos algo m¨¢s del 30%), personas que construyen nuestro futuro, y no sabemos si con el grado de responsabilidad que esto requiere, a pesar de las buenas intenciones.
As¨ª pues, y pesar de la hiperespecializaci¨®n requerida, nunca se sabe qu¨¦ equipo puede estar trabajando para la misi¨®n equivocada. Cobra m¨¢s importancia que nunca, as¨ª, la necesidad de crear principios ¨¦ticos universales y c¨®digos de conductas estandarizados, independientemente de la organizaci¨®n en la que los cient¨ªficos desempe?en su labor.
Es posible que desaparezca nuestra capacidad de discernir si es verdad aquello que vemos. Los deepfakes son solo algunos de los riesgos asociados a la vor¨¢gine tecnol¨®gica actual. Seremos m¨¢s dist¨®picos, pero alguien sabr¨¢ sacarle partido, o en palabras de George Orwell, "control de realidad, lo llamaron".
Sonia Pacheco es directora del congreso DES | Digital Enterprise Show.??
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.