Lavender, la inteligencia artificial de Israel que decide a qui¨¦n se bombardea en Gaza
Las Fuerzas Armadas israel¨ªes recurren a un sistema automatizado para seleccionar sus objetivos humanos, una pr¨¢ctica in¨¦dita hasta ahora
Israel ha cruzado una l¨ªnea m¨¢s en la automatizaci¨®n de la guerra. Sus Fuerzas Armadas han desarrollado un programa apoyado en inteligencia artificial (IA) para seleccionar las v¨ªctimas de sus bombardeos, un proceso que tradicionalmente exige comprobaciones manuales de indicios hasta verificar que un objetivo merece serlo. Bautizado como Lavender (lavanda), este sistema marc¨® durante las primeras semanas de guerra a 37.000 palestinos, y se us¨® en al menos 15.000 asesinatos desde el 7 de octubre hasta el 24 de noviembre en la invasi¨®n de Gaza, seg¨²n revela una investigaci¨®n period¨ªstica de dos ...
Israel ha cruzado una l¨ªnea m¨¢s en la automatizaci¨®n de la guerra. Sus Fuerzas Armadas han desarrollado un programa apoyado en inteligencia artificial (IA) para seleccionar las v¨ªctimas de sus bombardeos, un proceso que tradicionalmente exige comprobaciones manuales de indicios hasta verificar que un objetivo merece serlo. Bautizado como Lavender (lavanda), este sistema marc¨® durante las primeras semanas de guerra a 37.000 palestinos, y se us¨® en al menos 15.000 asesinatos desde el 7 de octubre hasta el 24 de noviembre en la invasi¨®n de Gaza, seg¨²n revela una investigaci¨®n period¨ªstica de dos medios israel¨ªes, +972 Magazine y Local Call, publicada tambi¨¦n en The Guardian.
La herramienta ha generado controversia por la frialdad con la que los mandos militares responsables de dar luz verde o no a las sugerencias del sistema Lavender gestionan la muerte de personas como meras estad¨ªsticas. Entra dentro de los par¨¢metros aceptables, por ejemplo, que por cada alto cargo de Ham¨¢s o Yihad Isl¨¢mica muera un centenar de civiles en el bombardeo, que suele afectar a varios edificios. El sistema est¨¢ dise?ado para atacar en el domicilio del objetivo y de noche, lo que aumenta las probabilidades de que este est¨¦ en casa, pero tambi¨¦n de que mueran con ¨¦l sus familiares y vecinos.
Nunca antes hab¨ªa trascendido que nadie automatizara una tarea tan sensible como la selecci¨®n de objetivos militares humanos, tarea en la que un falso positivo puede significar la muerte de inocentes. Las Fuerzas Armadas israel¨ªes negaron en un comunicado oficial tras la publicaci¨®n del reportaje que se est¨¦ dejando a una m¨¢quina determinar ¡°si alguien es un terrorista¡±. El escrito dice que los sistemas de informaci¨®n ¡°son meras herramientas para los analistas en el proceso de identificaci¨®n de objetivos¡±, si bien las fuentes citadas aseguran que los oficiales se limitan a validar las recomendaciones de Lavender, sin hacer comprobaciones.
La investigaci¨®n, que tiene como fuente a varios oficiales del ej¨¦rcito y los servicios de inteligencia israel¨ªes, incluyendo la Unidad 8200, no revela qu¨¦ par¨¢metros se usan para determinar si un sujeto tiene o no relaci¨®n con Ham¨¢s o Yihad Isl¨¢mica. Se enumeran algunos, como que el individuo cambie frecuentemente de tel¨¦fono (algo que sucede constantemente en un contexto de guerra) o que sea var¨®n (no hay mujeres con rango de oficial).
S¨ª se sabe que, como todos los sistemas de IA, Lavender no deja de ser un modelo probabil¨ªstico. Trabaja con estimaciones y, por tanto, comete fallos. Al menos el 10% de los individuos marcados como objetivo no lo eran, seg¨²n fuentes oficiales citadas en el reportaje. Ese margen de error, sumado a las muertes colaterales aceptadas por el ej¨¦rcito (hasta 300 civiles en un solo bombardeo el 17 de octubre para acabar con un comandante de Ham¨¢s), arroja un saldo de miles de palestinos, la mayor¨ªa mujeres y ni?os, asesinados por indicaci¨®n del software sin tener vinculaci¨®n alguna con las milicias.
La automatizaci¨®n de la guerra
El programa Lavender se complementa con otro llamado Where is Daddy? (?D¨®nde est¨¢ pap¨¢?, en ingl¨¦s), usado para rastrear a los individuos ya marcados y llevar a cabo el bombardeo cuando est¨¦n en casa, y con The Gospel (El evangelio), dirigido a identificar edificios y estructuras desde las que, seg¨²n el ej¨¦rcito, operan militantes de Ham¨¢s.
Lavender procesa informaci¨®n recogida de los m¨¢s de 2,3 millones de residentes en la Franja de Gaza, lo que confirma la tupida red de vigilancia digital a la que son sometidos todos sus habitantes. Se elabora una puntuaci¨®n para cada individuo que va de 1 a 100, de menor a mayor probabilidad estimada de que est¨¦ vinculado al brazo armado de Ham¨¢s o a la Yihad Isl¨¢mica; quienes sacan las notas m¨¢s altas son barridos de la faz de la Tierra junto a sus familiares y vecinos. Seg¨²n la investigaci¨®n de +972 Magazine, los oficiales apenas hac¨ªan comprobaciones acerca de los objetivos sugeridos por Lavender aludiendo motivos de ¡°eficiencia¡±: dedicaban pocos segundos a ver cada caso, presionados por la necesidad de recopilar cada d¨ªa nuevos objetivos a los que disparar. Llevado a la pr¨¢ctica, supon¨ªa validar las indicaciones del algoritmo.
?Es legal usar este tipo de sistemas? ¡°El ej¨¦rcito de Israel usa la IA para aumentar los procesos de toma de decisiones de los operadores humanos. Ese uso es conforme al derecho internacional humanitario, tal y como lo aplican las Fuerzas Armadas modernas en muchas guerras asim¨¦tricas desde el 11 de septiembre de 2001¡±, se?ala la jurista Magda Pacholska, investigadora del TMC Asser Institute y especialista en la intersecci¨®n entre tecnolog¨ªas disruptivas y derecho militar.
Pacholska recuerda que el ej¨¦rcito israel¨ª ya hab¨ªa usado anteriormente sistemas de apoyo automatizado a la toma de decisiones como Lavender y Gospel en la Operaci¨®n Guardi¨¢n de los Muros de 2021. Tambi¨¦n lo hab¨ªan hecho las fuerzas de EE UU, Francia o Pa¨ªses Bajos, entre otros, aunque siempre contra objetivos materiales. ¡°La novedad es que, esta vez, emplea estos sistemas contra objetivos humanos¡±, resalta la experta.
Arthur Holland Michel, a quien la ONU ha encargado informes sobre el uso de armas aut¨®nomas en conflictos armados, a?ade otro elemento. ¡°Lo que es diferente, y ciertamente sin precedentes, en el caso de Lavender en Gaza es la escala y la velocidad a la que se est¨¢ utilizando el sistema. El n¨²mero de personas que se ha identificado en tan solo unos meses es asombroso¡±, subraya. ¡°Otra diferencia crucial es que el tiempo transcurrido entre la identificaci¨®n de un objetivo por parte del algoritmo y el ataque contra este parece haber sido a menudo muy corto. Eso indica que no hay demasiada investigaci¨®n humana en el proceso. Desde un punto de vista jur¨ªdico, esto podr¨ªa ser problem¨¢tico¡±, concluye.
De acuerdo con las pr¨¢cticas y doctrinas de muchos Estados occidentales, incluida la OTAN, recuerda Pacholska, una vez que se determina que una persona ¡°participa directamente en las hostilidades¡± es un objetivo legal y puede ser atacado tambi¨¦n en su domicilio: ¡°Puede resultar chocante para el p¨²blico, pero as¨ª es como se han llevado a cabo los conflictos contempor¨¢neos contra los grupos armados organizados desde el 11 de septiembre de 2001¡å.
Lo que no es legal es masacrar a civiles. Para Luis Arroyo Zapatero, rector honorario de la Universidad de Castilla-La Mancha y especialista en Derecho Penal Internacional, las muertes impulsadas por esta herramienta deben ser considerados ¡°cr¨ªmenes de guerra¡±, y el conjunto de estas acciones y las destrucciones masivas de edificios y personas ¡°son cr¨ªmenes contra la humanidad¡±. En derecho internacional, explica el profesor, no se admiten los asesinatos como acci¨®n militar, aunque se discute sobre los llamados asesinatos selectivos. ¡°Las muertes producidas como da?os colaterales son puros asesinatos. El sistema Lavender es directamente una m¨¢quina de asesinar civiles, pues admite muertes colaterales de civiles de entre 10 y 100 personas m¨¢s all¨¢ de objetivo preciso¡±, asegura.
El laboratorio palestino del armamento israel¨ª
Los palestinos saben bien lo que es estar vigilados. Los servicios de inteligencia israel¨ªes llevan a?os recolectando todo tipo de datos sobre cada uno de ellos. El rastro digital de sus m¨®viles, desde ubicaciones a interacciones en redes sociales, se procesa y almacena. Las c¨¢maras con sistemas autom¨¢ticos de reconocimiento facial forman parte de su d¨ªa a d¨ªa al menos desde 2019. The Washington Post inform¨® sobre un programa, Blue Wolf, dirigido a registrar los rostros de cada habitante de Cisjordania, incluidos ni?os y ancianos, y asociarlos a una ficha de ¡°peligrosidad¡±, de manera que los soldados, al fotografiar por la calle a un sujeto con su m¨®vil, vieran sobre la marcha un c¨®digo de colores que les indicara si lo tienen que arrestar. The New York Times ha informado del uso de un sistema similar en la Franja de Gaza desplegado a finales del a?o pasado que tambi¨¦n busca recolectar y clasificar las caras de los palestinos sin su consentimiento.
Todas estas tecnolog¨ªas las desarrollan empresas israel¨ªes, que se las venden a sus fuerzas armadas y luego las exportan con la garant¨ªa de haber sido probadas en el terreno. ¡°Reconocimiento facial en todas partes, drones, tecnolog¨ªa de espionaje¡ Este Estado es realmente una incubadora de tecnolog¨ªas de vigilancia. Si vendes un producto, tienes que mostrar lo efectivo que es en escenarios reales y en tiempo real. Eso es lo que est¨¢ haciendo Israel¡±, dice Cody O¡¯Rourke, de la ONG Good Shepherd Collective, desde Beit Sahour, un pueblo palestino al este de Bel¨¦n. Este estadounidense, que lleva dos d¨¦cadas como cooperante en Palestina, sabe que su nombre y el de otros colaboradores que han ido a Gaza est¨¢n metidos en una lista negra. Eso supone registros adicionales y esperas m¨¢s largas en los controles militares israel¨ªes. ¡°Es una capa m¨¢s de la aplicaci¨®n de la tecnolog¨ªa para fragmentar a la poblaci¨®n¡±, explica por videollamada.
Israel se ha ganado un nombre en el mercado internacional de armamento. Vende tanques, cazas, drones y misiles, pero tambi¨¦n sistemas sofisticados como Pegasus, el software esp¨ªa desarrollado por NSO Group que permite entrar en el tel¨¦fono m¨®vil de las v¨ªctimas, que en Espa?a se us¨® para intervenir las comunicaciones de los l¨ªderes independentistas en pleno proc¨¦s. ¡°Israel siempre se hab¨ªa considerado l¨ªder en ciberseguridad y, desde hace cinco o seis a?os, tambi¨¦n se est¨¢ especializando en herramientas apoyadas en IA que pueden tener uso militar¡±, reflexiona Raquel Jorge, analista de pol¨ªtica tecnol¨®gica del Real Instituto Elcano. Han circulado por internet presentaciones de mandos israel¨ªes en ferias de armamento que presentan el programa Lavender con la jerga de los emprendedores y se refieren al sistema como ¡°el polvo m¨¢gico para detectar terroristas¡±.
Hay quien lee la investigaci¨®n de +972 Magazine como una gran campa?a de marketing de las fuerzas armadas israel¨ªes. ¡°Mientras que algunos han interpretado el reportaje como una acusaci¨®n moral al uso por parte de Israel de una tecnolog¨ªa novedosa, yo sugerir¨ªa que se trata m¨¢s bien de propaganda que intenta afianzar su papel en la econom¨ªa pol¨ªtica global como desarrollador de armas¡±, explica a EL PA?S Khadijah Abdurraman, directora de Logic(s) Magazine, una revista especializada en la intersecci¨®n entre tecnolog¨ªa y sociedad. ¡°Una puede imaginarse f¨¢cilmente a las Fuerzas de Apoyo R¨¢pido de Sud¨¢n haciendo un pedido de los sistemas Lavender antes de que acabe la semana¡±, a?ade.
O¡¯Rourke es de la misma opini¨®n. ¡°El punto no es que matar palestinos est¨¢ mal, sino que se us¨® el sistema de forma inadecuada, sin hacer las comprobaciones pertinentes. Parece que se quiera vender que hay una forma correcta de asesinar. Que se publique eso no le debe molestar al ej¨¦rcito, porque si se ha publicado en un medio israel¨ª quiere decir que el Gobierno ha dado su visto bueno¡±, apunta el estadounidense en referencia a la oficina del Censor Militar que veta la informaci¨®n que pudiera da?ar la seguridad del Estado.
¡°Israel lleva d¨¦cadas deslegitimando el proceso de paz con los palestinos, aunque nunca ha estado interesado en alcanzar la paz. Necesita que el mundo legitime su ocupaci¨®n y usa la tecnolog¨ªa para mantener esa ocupaci¨®n como tarjeta de visita¡±, escribe Antony Loewenstein en su libro El laboratorio palestino (Capit¨¢n Swing, 2024), que profundiza en c¨®mo el pa¨ªs hebreo se ha servido de la ocupaci¨®n que ejerce sobre los territorios palestinos como escaparate de la tecnolog¨ªa militar que lleva d¨¦cadas vendiendo por todo el mundo.
El uso de Lavender plantea muchas preguntas y pocas respuestas. ?Qu¨¦ tipo de algoritmos utiliza el sistema para identificar objetivos potenciales? ?Qu¨¦ elementos se tienen en cuenta en ese c¨®mputo? ?C¨®mo se verifican las recomendaciones de objetivos del sistema? ?En qu¨¦ circunstancias se niegan los analistas a aceptar la recomendaci¨®n de un sistema? ¡°Si no tenemos respuestas a estas preguntas, ser¨¢ muy dif¨ªcil encontrar una soluci¨®n a los graves riesgos que plantea la r¨¢pida automatizaci¨®n de la guerra¡±, concluye Holland.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y X o apuntarte aqu¨ª para recibir nuestra newsletter semanal.