El ¡®hermano¡¯ maligno de ChatGPT y otras amenazas de la inteligencia artificial generativa
Esta tecnolog¨ªa puede usarse para generar estafas m¨¢s sofisticadas, pornograf¨ªa e incluso armas bioqu¨ªmicas
FraudGPT es el hermano maligno de ChatGPT. Se promociona en la dark web y puede escribir un mensaje haci¨¦ndose pasar por un banco, crear malware o mostrar sitios web susceptibles de ser defraudados, seg¨²n la plataforma de an¨¢lisis de datos Netenrich. Otras herramientas como WormGPT tambi¨¦n prometen facilitar el trabajo a los ciberdelincuentes. La inteligencia artificial generativa puede usarse con fines maliciosos: de generar estafas sofisticadas, a crear pornograf¨ªa no consentida, campa?as de desinformaci¨®n e incluso armas bioqu¨ªmicas.
¡°A pesar de ser algo relativamente nuevo, los delincuentes no han tardado en aprovechar las capacidades de la inteligencia artificial generativa para conseguir sus prop¨®sitos¡±, afirma Josep Albors, director de investigaci¨®n y concienciaci¨®n de la compa?¨ªa de seguridad inform¨¢tica ESET en Espa?a. El experto pone algunos ejemplos: de la elaboraci¨®n de campa?as de phishing cada vez m¨¢s perfeccionadas ¡ªsin faltas de ortograf¨ªa, adem¨¢s de muy bien segmentadas y dirigidas¡ª a la generaci¨®n de desinformaci¨®n y de deepfakes. Es decir, v¨ªdeos manipulados con inteligencia artificial para alterar o sustituir la cara, el cuerpo o la voz de una persona.
Para Fernando Anaya, country manager de Proofpoint, la inteligencia artificial generativa ha demostrado ser ¡°un paso evolutivo m¨¢s que revolucionario¡±. ¡°Atr¨¢s quedaron los d¨ªas en los que se aconsejaba a los usuarios buscar errores gramaticales, de contexto y de sintaxis obvios para detectar correos maliciosos¡±, afirma. Ahora los atacantes lo tienen m¨¢s f¨¢cil. Basta con pedirle a una de estas herramientas que genere un email urgente y convincente acerca de actualizar informaci¨®n de cuentas y rutas bancarias.
Adem¨¢s, pueden crear f¨¢cilmente correos electr¨®nicos en muchos idiomas. ¡°Es posible que un LLM (un modelo de lenguaje colosal, que usa aprendizaje profundo y se entrena con grandes cantidades de datos) primero lea todos los perfiles de LinkedIn de una organizaci¨®n y luego redacte un correo electr¨®nico muy espec¨ªfico para cada empleado. Todo ello en impecable ingl¨¦s u holand¨¦s, adaptado a los intereses espec¨ªficos del destinatario¡±, advierte el Centro de Seguridad Cibern¨¦tica holand¨¦s.
Philipp Hacker, catedr¨¢tico de Derecho y ?tica de la Sociedad Digital en la Nueva Escuela Europea de Estudios Digitales, explica que la inteligencia artificial generativa puede usarse para crear malware m¨¢s efectivo, m¨¢s dif¨ªcil de detectar y capaz de atacar sistemas o vulnerabilidades espec¨ªficas: ¡°Si bien todav¨ªa es probable que se requiera una gran experiencia humana para desarrollar virus avanzados, la inteligencia artificial puede ayudar en las etapas iniciales de la creaci¨®n de malware¡±.
La implementaci¨®n de este tipo de t¨¦cnicas ¡°a¨²n dista mucho de estar generalizada¡±, seg¨²n Albors. Pero herramientas como FraudGPT o WormGPT pueden suponer un ¡°serio problema de cara al futuro¡±. ¡°Con su ayuda, delincuentes sin apenas conocimientos t¨¦cnicos previos pueden preparar campa?as maliciosas de todo tipo con una probabilidad de ¨¦xito considerable, lo que para usuarios y empresas supondr¨¢ tener que lidiar con un n¨²mero de amenazas a¨²n mayor¡±.
Generar audio, im¨¢genes y v¨ªdeos
Cuanto m¨¢s convincente sea una estafa, m¨¢s probabilidades habr¨¢ de que alguien se convierta en v¨ªctima. Hay quienes usan la inteligencia artificial para sintetizar audio. ¡°Estafas como las de ¡°pig butchering¡± podr¨ªan pasar alg¨²n d¨ªa de los mensajes a las llamadas, aumentando a¨²n m¨¢s la capacidad de persuasi¨®n de esta t¨¦cnica¡±, cuenta Anaya. Esta estafa, traducida al espa?ol como ¡°carnicer¨ªa de cerdos¡±, se llama as¨ª porque los atacantes ¡®engordan¡¯ a las v¨ªctimas y se ganan su confianza para luego llevarse todo lo que tienen. Aunque suele estar relacionada con las criptomonedas, tambi¨¦n puede implicar otros intercambios financieros.
Los investigadores de Proofpoint han visto ya a ciberdelincuentes emplear esta tecnolog¨ªa para enga?ar a funcionarios gubernamentales. Algo que muestra su investigaci¨®n sobre el grupo TA499, que utiliza esta t¨¦cnica contra pol¨ªticos, empresarios o celebridades. ¡°Realizan videollamadas en las que tratan de parecerse lo m¨¢s posible a los individuos suplantados con inteligencia artificial y otras t¨¦cnicas para que las v¨ªctimas cuenten informaci¨®n o ridiculizarlas, subiendo la grabaci¨®n despu¨¦s a redes sociales¡±, explica Anaya.
La inteligencia artificial generativa tambi¨¦n se usa para realizar campa?as con im¨¢genes modificadas e incluso v¨ªdeos. Se ha clonado el audio de presentadores de televisi¨®n o personalidades importantes como Ana Bot¨ªn, Elon Musk o incluso Alberto N¨²?ez Feij¨®o. As¨ª lo explica Albors: ¡°Estos deepfakes se usan principalmente para promocionar inversiones en criptomonedas que suelen terminar con la p¨¦rdida del dinero invertido¡±.
De pornograf¨ªa a armas bioqu¨ªmicas
A Hacker le resulta particularmente ¡°alarmante¡± el uso de inteligencia artificial generativa para crear pornograf¨ªa. ¡°Esta forma de abuso se dirige casi exclusivamente a las mujeres y provoca graves da?os personales y profesionales¡±, se?ala. Hace unos meses decenas de menores de Extremadura denunciaron que circulaban fotos de falsos desnudos suyos creadas por inteligencia artificial. Algunas celebridades como Rosal¨ªa o Laura Escanes han sufrido ataques similares.
La misma tecnolog¨ªa se ha usado ¡°para crear im¨¢genes falsas que retratan a inmigrantes amenazantes, con el objetivo de influir en la opini¨®n p¨²blica y los resultados electorales, y para crear campa?as de desinformaci¨®n m¨¢s sofisticadas y convincentes a gran escala¡±, como destaca Hacker. Tras los incendios forestales que arrasaron la isla de Maui en agosto, algunas publicaciones indicaban sin ning¨²n tipo de evidencia que hab¨ªan sido causados por un ¡°arma clim¨¢tica¡± secreta probada por Estados Unidos. Estos mensajes formaban parte de una campa?a liderada por China e inclu¨ªan im¨¢genes aparentemente creadas con inteligencia artificial, seg¨²n The New York Times.
El potencial del uso de la inteligencia artificial generativa no acaba aqu¨ª. Un art¨ªculo publicado en la revista Nature Machine Intelligence indica que los modelos avanzados de inteligencia artificial podr¨ªan ayudar en la creaci¨®n de armas bioqu¨ªmicas. Algo que, para Hacker, representa un peligro global. Adem¨¢s, los algoritmos pueden infiltrarse en el software de infraestructuras cr¨ªticas, seg¨²n el experto: ¡°Estas amenazas h¨ªbridas desdibujan las l¨ªneas entre los escenarios de ataque tradicionales, lo que las hace dif¨ªciles de predecir y contrarrestar con las leyes y regulaciones existentes¡±.
El desaf¨ªo de prevenir los riesgos de FraudGPT y otras herramientas
Existen soluciones que utilizan aprendizaje automático y otras técnicas para detectar y bloquear los ataques más sofisticados. Aun así, Anaya hace hincapié en la educación y la concienciación de los usuarios para que ellos mismos puedan reconocer los emails de phishing y otras amenazas. Para Hacker, mitigar los riesgos asociados con el uso malicioso de la inteligencia artificial generativa requiere un enfoque que combine medidas regulatorias, soluciones tecnológicas y directrices éticas.
Entre las posibles medidas, menciona la implementación de equipos independientes obligatorios que prueben este tipo de herramientas para identificar vulnerabilidades y posibles usos indebidos o la prohibición de ciertos modelos de código abierto. “Abordar estos riesgos es complejo, ya que existen importantes compensaciones entre los diversos objetivos éticos de la inteligencia artificial y la viabilidad de implementar ciertas medidas”, concluye.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y X o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.