El espa?ol que cre¨® una IA que aprende a falsificar discursos de la ONU en solo 13 horas
Dos investigadores de Global Pulse, una agencia de la ONU que trabaja con 'big data', han conseguido que un software genere discursos hiperrealistas sobre temas que van desde el desarme nuclear hasta los refugiados
El uso de la inteligencia artificial para generar y compartir informaci¨®n falsa ya es un asunto preocupante para muchas instituciones. Uno de los ejemplos m¨¢s visuales son los deep fakes: v¨ªdeos falsos donde aparecen personajes p¨²blicos diciendo cosas que nunca han dicho. Es el caso de Barack Obama hablando, precisamente, de noticias falsas, o de Scarlett Johansson, que se encontr¨® su cara en un v¨ªdeo porno protagonizado por otra persona. Los resultados son sorprendentemente realistas. Pero, m¨¢s all¨¢ de los v¨ªdeos, la inteligencia artificial tambi¨¦n se puede utilizar como generadora de textos falsos: puede crear discursos impecables, al nivel de los que grandes l¨ªderes mundiales pronuncian en la ONU, pero que nunca han sido pronunciados por nadie.
Utilizar la IA con este objetivo es cada vez m¨¢s sencillo. Para comprobar c¨®mo de f¨¢cil es conseguirlo, dos investigadores de Global Pulse, una iniciativa de la ONU que trabaja con big data y su aplicaci¨®n a la acci¨®n humanitaria, han puesto a prueba a un software que ha sido entrenado con textos de Wikipedia y refinado con las transcripciones de texto de 7.507 discursos pronunciados por los representantes de los estados miembros en la Asamblea General de la ONU de 1970 a 2015.
Necesitaron solo datos y herramientas de c¨®digo abierto y una inversi¨®n de menos de diez euros (por el coste de los servidores). Trece horas despu¨¦s, el algoritmo era capaz de generar discursos sobre una amplia variedad de temas delicados y de gran importancia, desde el desarme nuclear hasta los refugiados. "El software produce un p¨¢rrafo sobre temas relevantes discutidos en la ONU en base a unas pocas palabras introducidas por una persona", explica Miguel Luengo-Oroz, chief data scientist de UN Global Pulse de la ONU y uno de los responsables del proyecto. "Este texto es generalmente coherente y, con una edici¨®n m¨ªnima, en algunos casos podr¨ªa ser indistinguible del escrito por un humano".
Los investigadores comprobaron que el discurso del modelo coincid¨ªa con el estilo y la cadencia de los discursos reales de la ONU en el 90% de los casos cuando los temas eran gen¨¦ricos, como el cambio clim¨¢tico. Los resultados eran menos convincentes (coincid¨ªan en el 60% de los casos) cuando los temas eran m¨¢s concretos e incendiarios, como cuando se hablaba de inmigraci¨®n o racismo.
Por qu¨¦ es importante
El estudio demuestra la velocidad y la facilidad con la que es posible diseminar noticias falsas, generar discursos de odio y personificarlos en figuras de alto perfil. "Hemos realizado este experimento para llamar la atenci¨®n sobre la disponibilidad de tecnolog¨ªa de inteligencia artificial que puede ser usada para difundir fake news, suplantar personalidades o incluso escribir autom¨¢ticamente un discurso inflamatorio y de odio en las redes", explica Luengo-Oroz. Este trabajo destaca la facilidad con que esto se puede lograr, as¨ª como las amenazas de combinar estas t¨¦cnicas con otras tecnolog¨ªas.
Los investigadores de Global Pulse concluyen que se necesita un mayor esfuerzo global para encontrar formas de detectar y responder al contenido generado por inteligencia artificial. "Es importante que como sociedad establezcamos barreras contra los deep fakes a varios niveles. El primer paso es educaci¨®n y visibilidad para entender los riesgos", asegura Luengo-Oroz. Uno de los objetivos de su proyecto es precisamente resaltar los riesgos pol¨ªticos y sociales potenciales que surgen del uso malicioso del software de generaci¨®n de textos y su impacto potencial en los derechos humanos. "Es importante desarrollar soluciones sociales y tecnol¨®gicas que puedan asegurar la veracidad de la informaci¨®n".
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.