Jos¨¦ Luis Hern¨¢ndez, inform¨¢tico: ¡°Es muy f¨¢cil enga?ar a la inteligencia artificial para que genere un ataque¡±
El proyecto del investigador ha sido uno de los elegidos por la Fundaci¨®n BBVA para su programa de impulso a la investigaci¨®n
Jos¨¦ Luis Hern¨¢ndez Ramos (Murcia, 37 a?os) es investigador Marie Sk?odowska-Curie en la Universidad de Murcia, donde estudi¨® la licenciatura, el m¨¢ster y el doctorado en Inform¨¢tica. ¡°Cuando era ni?o y jugaba con las maquinitas como la Game Boy, me preguntaba c¨®mo era posible que salieran todas esas im¨¢genes al meter los cartuchos¡±, confiesa. A lo largo de su trayectoria profesional ha sido oficial cient¨ªfico en la Comisi¨®n Europea y ha publicado m¨¢s de 60 art¨ªculos de investigaci¨®n, adem¨¢s de colaborar durante cinco a?os con la Agencia de la Uni¨®n Europea para la Ciberseguridad (ENISA...
Jos¨¦ Luis Hern¨¢ndez Ramos (Murcia, 37 a?os) es investigador Marie Sk?odowska-Curie en la Universidad de Murcia, donde estudi¨® la licenciatura, el m¨¢ster y el doctorado en Inform¨¢tica. ¡°Cuando era ni?o y jugaba con las maquinitas como la Game Boy, me preguntaba c¨®mo era posible que salieran todas esas im¨¢genes al meter los cartuchos¡±, confiesa. A lo largo de su trayectoria profesional ha sido oficial cient¨ªfico en la Comisi¨®n Europea y ha publicado m¨¢s de 60 art¨ªculos de investigaci¨®n, adem¨¢s de colaborar durante cinco a?os con la Agencia de la Uni¨®n Europea para la Ciberseguridad (ENISA) y la Organizaci¨®n Europea de Ciberseguridad (ECSO), de donde surgi¨® su inter¨¦s por buscar el impacto de su trabajo. ¡°Cualquier investigador tiene que preguntarse qu¨¦ puede hacer la inteligencia artificial en su campo¡±, afirma. Ahora, su proyecto Gladiator ha sido uno de los 58 seleccionados por las becas Leonardo 2023 de la Fundaci¨®n BBVA, dotadas con hasta 40.000 euros, para desarrollar una herramienta de inteligencia artificial que sea capaz de detectar amenazas de ciberseguridad y analizar programas inform¨¢ticos maliciosos.
Pregunta. ?C¨®mo resumir¨ªa el objetivo del proyecto Gladiator?
Respuesta. La investigaci¨®n quiere aplicar o usar un modelo grande de lenguaje, como ChatGPT, Bard, o Llama, para entender c¨®mo podemos utilizarlos para abordar problemas de ciberseguridad. Cuando queremos adaptar uno de estos modelos a un determinado dominio como la ciberseguridad, necesitamos ajustar el modelo a una terminolog¨ªa relacionada con esa disciplina concreta. Queremos entender c¨®mo adaptar esos modelos para detectar un ataque y, al mismo tiempo, adaptarlos con informaci¨®n sobre ciberseguridad para mejorar su rendimiento y que sean capaces de resolver problemas de este tipo. El proyecto durar¨¢ hasta marzo de 2025.
P. ?C¨®mo se van a adaptar los modelos de lenguaje a lo que necesita el proyecto?
R. Se coge informaci¨®n relacionada con ciberseguridad, con bases de datos que contengan informaci¨®n sobre amenazas, y se entrena o se ajusta el modelo con la informaci¨®n. De esta manera va a ser capaz de mejorar su comprensi¨®n acerca de lo que es una amenaza de ciberseguridad.
P. ?C¨®mo detecta la inteligencia artificial las amenazas de ciberseguridad y c¨®mo las combate?
R. Muchos sistemas basados en inteligencia artificial se basan en aprender lo que es un ataque o no, por ejemplo, usando conjuntos de datos relacionados con las conexiones de red de cierto entorno. Lo que buscamos con el proyecto es ser capaces de analizar la informaci¨®n de ciberseguridad que viene en formato de texto, que pueda estar relacionada con vulnerabilidades o que pueda encontrarse en redes sociales y otras fuentes, y determinar si es una amenaza o no.
P. ?Cu¨¢l es la diferencia entre los sistemas que se utilizaban antes para combatir la ciberseguridad y los de ahora?
R. Los sistemas de seguridad necesitan ser cada vez m¨¢s inteligentes para detectar posibles amenazas considerando t¨¦cnicas de inteligencia artificial. Antes, estos sistemas detectaban ataques buscando amenazas conocidas en bases de datos. Los sistemas necesitan evolucionar para ser capaces de identificar ataques que no conozcan.
P. ?Y qu¨¦ tipo de ataques se podr¨ªan prevenir o identificar?
R. La aplicaci¨®n de t¨¦cnicas de inteligencia artificial en ciberseguridad nos permitir¨¢ mejorar la identificaci¨®n y detecci¨®n de una gran variedad de ataques. Un ataque de phishing, es un ejemplo claro de c¨®mo puede ayudar el uso de los de los modelos de lenguaje, analizando el texto o el contenido que viene en un correo electr¨®nico. Podemos identificar si varios dispositivos se est¨¢n confabulando para lanzar un ataque, y tambi¨¦n si no viene solamente de una fuente, sino de varias.
P. Y desde casa, ?c¨®mo se puede utilizar la inteligencia artificial para combatir los ataques?
R. Ahora tenemos acceso 24 horas a la inteligencia artificial a trav¨¦s de herramientas como ChatGPT, y nos da la capacidad para fomentar la educaci¨®n y la concienciaci¨®n en ciberseguridad. Todo el mundo puede preguntar a la herramienta sobre c¨®mo protegerse o c¨®mo configurar un dispositivo para que sea menos vulnerable. Es importante saber que los modelos no son perfectos, todav¨ªa hay que contrastar los resultados y las respuestas que ofrecen.
P. ?La inteligencia artificial ayudar¨ªa a detectar si una aplicaci¨®n ha sido alterada?
R. Absolutamente. Ayudar¨ªa a detectar, por ejemplo, si una aplicaci¨®n es fake o maliciosa. De hecho, una de las cosas que tambi¨¦n se est¨¢ viendo con este tipo de an¨¢lisis de aplicaciones, de c¨®digo y de software en general, son las iniciativas de modelo de lenguaje para analizar c¨®digo de software.
P. ?La inteligencia artificial es capaz de detectar un robo de datos o desinformaci¨®n?
R. S¨ª, aunque los atacantes suelen ser cada vez m¨¢s creativos y utilizan l¨®gicamente mejor las herramientas.
P. ?La inteligencia artificial ayuda tanto al que quiere crear la desinformaci¨®n como al que quiere combatirla?
R. S¨ª, es un arma de doble filo. Si est¨¢ en las manos equivocadas, se puede utilizar para lanzar ataques cada vez m¨¢s sofisticados. Ah¨ª tambi¨¦n est¨¢ el peligro del acceso que se tiene ahora, en general, a los sistemas de inteligencia artificial, como ChatGPT u otros.
P. ?C¨®mo se puede usar una herramienta como ChatGPT para definir o generar un ataque?
R. Cuando le preguntas a un sistema como ChatGPT que te genere un ataque, lo primero que te dice es que no lo genera porque puede dar lugar a un problema de ciberseguridad. En cambio, es muy f¨¢cil enga?ar a la herramienta y decirle que necesitas conocer el ataque porque quieres que tu sistema sea m¨¢s robusto o quieres ense?ar el ataque en una clase. En esos casos el sistema s¨ª te da la respuesta.
P. ?El sistema del proyecto permitir¨¢ dise?ar una herramienta en la que no se tengan que compartir datos sensibles?
R. La investigaci¨®n quiere intentar entender cu¨¢les son los problemas, y las limitaciones para que el ajuste de modelo de lenguaje se haga de forma descentralizada. Ahora mismo, un modelo se entrena y se ajusta con varias fuentes de informaci¨®n, como la que le doy yo mismo cuando interact¨²o con el sistema. La idea es que ese proceso sea descentralizado, y en lugar de tener que compartir informaci¨®n sensible, se pueda compartir informaci¨®n relacionada, pero sin tener que mandarle la informaci¨®n sobre la vulnerabilidad concreta para que el sistema identifique un ataque.
P. ?Cu¨¢l es el objetivo que querr¨ªa alcanzar con su proyecto cuando finalice, en 2025?
R. Mejorar nuestra capacidad de comprensi¨®n de los modelos de lenguaje para abordar problemas de ciberseguridad, crear un sistema que nos ayude a identificar un ataque, entender c¨®mo y por qu¨¦ se ha producido, y buscar relaciones entre los diferentes ataques que ayuden a predecir si mi sistema va a ser atacado. Tambi¨¦n queremos saber c¨®mo la inteligencia artificial es capaz de generar una medida que aborde y resuelva ese ataque de ciberseguridad, por ejemplo, implementado un parche de seguridad de forma autom¨¢tica.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y X o apuntarte aqu¨ª para recibir nuestra newsletter semanal.