¡®Robots asesinos¡¯: cuando el que decide matar es un algoritmo
Las armas que operan sin mediaci¨®n humana hacen que se tambaleen las convenciones internacionales sobre lo que est¨¢ permitido en una guerra
?Opera ya la tecnolog¨ªa para que un robot asesino localice a alguien, le apunte y le dispare de forma completamente aut¨®noma? Un grupo de expertos de las Naciones Unidas sostiene que s¨ª, y que esta situaci¨®n se dio ya en Libia en marzo de 2020. As¨ª se lo comunic¨® al Consejo de Seguridad, seg¨²n public¨® la semana pasada la revista New Scientist. Este documento de g...
Reg¨ªstrate gratis para seguir leyendo
Si tienes cuenta en EL PA?S, puedes utilizarla para identificarte
?Opera ya la tecnolog¨ªa para que un robot asesino localice a alguien, le apunte y le dispare de forma completamente aut¨®noma? Un grupo de expertos de las Naciones Unidas sostiene que s¨ª, y que esta situaci¨®n se dio ya en Libia en marzo de 2020. As¨ª se lo comunic¨® al Consejo de Seguridad, seg¨²n public¨® la semana pasada la revista New Scientist. Este documento de gran calado (entre cuyos autores figura el espa?ol Luis Antonio de Albuquerque Bacardit) puede suponer un punto de inflexi¨®n, puesto que por primera vez en la historia se admite que una m¨¢quina ha atacado de forma aut¨®noma a un ser humano, lo que desata profundos debates ¨¦ticos y legales porque hace que se tambaleen las convenciones internacionales sobre lo que est¨¢ permitido en una guerra.
Bajo el concepto coloquial de robots asesinos se esconde un campo ampl¨ªsimo de armamento, explica el analista de defensa Jes¨²s Manuel P¨¦rez Triana: ¡°Estos van desde drones que caben en la palma de una mano a los de gran tama?o a aparatos como el Global Hawk estadounidense, cuya envergadura es mayor que la de un Boeing 737 y que es capaz de cruzar sin problemas el Oc¨¦ano Atl¨¢ntico, pasando por veh¨ªculos blindados aut¨®nomos como los desarrollados por la empresa estonia Milrem Robotics, que ya han sido probados en guerras como la de Mal¨ª¡±.
El uso de drones parcialmente aut¨®nomos (es decir, necesitan alguna intervenci¨®n humana) se ha generalizado de tal manera que han sido m¨¢s que frecuentes en las guerras en Libia y Siria, y se convirtieron ¡°en la verdadera estrella¡± del conflicto del Alto Karabaj que enfrent¨® a Armenia y Azerbaiy¨¢n en 2020, explica P¨¦rez Triana. En esta ¨²ltima contienda se dio a conocer al gran p¨²blico la llamada munici¨®n merodeadora, que se basa en la idea de no emplear drones para lanzar armamento, sino que el propio dron est¨¦ dotado de una ojiva y cuando localiza un objetivo, un operario lo lance hacia ¨¦l porque el propio dron es un arma. ¡°El paso evidente es dotarle a ese dron kamikaze de un sistema de reconocimiento de objetivos que le permita operar aut¨®nomamente¡±.
Paso adelante
Para su funcionamiento, los drones aut¨®nomos van equipados con una c¨¢mara y un algoritmo de procesamiento de im¨¢genes: de la misma manera que se puede ense?ar a un programa a reconocer caras, se le ense?a a reconocer objetivos. Y a atacarlos. Hasta ahora, las fuerzas a¨¦reas debat¨ªan cu¨¢l ser¨ªa el ¨²ltimo avi¨®n con piloto. ¡°Lo que estamos viendo¡±, explica P¨¦rez Triana, ¡°es que se ha lanzado una carrera tecnol¨®gica por fabricar masivamente drones kamikazes baratos que puedan lanzarse en enjambre gracias a la computaci¨®n distribuida, en la que cada dron por s¨ª mismo no tiene mucha potencia de procesamiento, pero que actuando en enjambre funciona como una mente colmena. Y si lo que se pretende es lanzar enjambres de drones de forma masiva no puedes depender de un humano sentado detr¨¢s de una consola¡±.
Este paso adelante ya se ha dado, seg¨²n la carta que remiti¨® el grupo de expertos al Consejo de Seguridad de la ONU. En ella, se relata un episodio acaecido en marzo de 2020 durante la guerra de Libia. Sobre el terreno, las fuerzas del general Jalifa Hafter, de 77 a?os, entonces hombre fuerte del este del pa¨ªs respaldado por Rusia. Sus tropas lanzaron un ataque sobre Tr¨ªpoli y fueron repelidas por el ej¨¦rcito del primer ministro reconocido por la ONU, Fayez Sarraj. ¡°Los convoyes log¨ªsticos y las fuerzas aliadas de Hafter en retirada fueron perseguidos posteriormente y atacados a distancia por veh¨ªculos a¨¦reos de combate no tripulados o sistemas de armas aut¨®nomos letales como el STM Kargu-2 [un dron militar de fabricaci¨®n turca] y otras municiones de merodeo. Los sistemas de armas aut¨®nomos letales se programaron para atacar objetivos sin requerir la conectividad de datos entre el operador y la munici¨®n¡±. La carta no revela si hubo v¨ªctimas mortales. Fuentes de la industria en Espa?a, sin embargo, ven con escepticismo esta posibilidad. ¡°M¨¢s all¨¢ de los avances de la t¨¦cnica en ¨¢mbitos puramente acad¨¦micos, y hasta donde sabemos, los programas industriales y las innovaciones llevadas a sistemas en uso en defensa se encuentran en un nivel de autonom¨ªa muy bajo¡±, aseguran.
Estos robots asesinos, explica Rahul Uttamchandani, abogado experto del gabinete de Legal Army, contravienen ¡°todos los principios sobre los que se basan las guerras modernas¡±. Los b¨¢sicos son el de humanidad (toda persona que no participa o que ha dejado de participar en las hostilidades debe ser tratada humanamente); necesidad (no usar armas o m¨¦todos que causen da?os excesivos con respecto a la ventaja militar prevista); proporcionalidad (no se deben causar al adversario males desproporcionados en relaci¨®n con el objetivo del conflicto armado); y distinci¨®n (hay que diferenciar en todo momento entre la poblaci¨®n y los combatientes).
El debate de la legislaci¨®n
Las armas aut¨®nomas (conocidas como limited automated weapons, o LAWS) o las automatizadas (o parcialmente aut¨®nomas) ya existen hace tiempo, recuerda Joaqu¨ªn Rodr¨ªguez ?lvarez, doctor en Derecho P¨²blico Internacional, profesor en la UAB y responsable en Espa?a de la campa?a Stop Killing Robots (detener los robots asesinos). Hasta ahora, asegura, su uso se hab¨ªa limitado a la defensa. El ejemplo m¨¢s reciente de ello es la C¨²pula de Hierro, el sistema de defensa de Israel que, seg¨²n su ej¨¦rcito, logr¨® interceptar el 90% de los misiles lanzados por las milicias de Ham¨¢s en la contienda desencadenada el mes pasado.
Existe en la actualidad una considerable actividad internacional que trata de lograr su prohibici¨®n. Las posibles negociaciones, sin embargo, est¨¢n en punto muerto. Tanto Estados Unidos como el Reino Unido y los pa¨ªses de la OTAN sostienen que el Derecho Internacional Humanitario (DIH) existente ya ¡°proporciona un marco integral para controlar el uso de la autonom¨ªa en los sistemas armados¡±, seg¨²n manifest¨® en 2019 el representante norteamericano ante el Convenio sobre Ciertas Armas Convencionales (CCW). El razonamiento legal, sin embargo, est¨¢ lleno de recovecos que dificultan cualquier avance, seg¨²n explica Vicente Garrido Rebolledo, profesor de la Universidad Rey Juan Carlos y miembro entre 2014 y 2017 del Consejo Asesor de la Oficina de Asuntos de Desarme de las Naciones Unidas para los secretarios generales de Ban Ki-moon y Antonio Gut¨¦rres.
Las convenciones de Ginebra constituyen la columna vertebral de esta legislaci¨®n humanitaria. Ni EE UU ni Turqu¨ªa (entre otros) han firmado sin embargo parte de los protocolos, sobre todo los que se refieren a los conflictos internos. Esta circunstancia dejar¨ªa ya de por s¨ª sin efectos el DIH para casos como el libio. Por otra parte, para que se respeten sus cuatro principios b¨¢sicos (humanidad, necesidad, proporcionalidad y distinci¨®n) resulta necesario atribuir las acciones de guerra a alguien. ¡°En el caso de las armas aut¨®nomas, ?c¨®mo le preguntas a una m¨¢quina que explique su comportamiento? A una m¨¢quina no cabe atribuirle responsabilidad. Y si hemos llegado a la automatizaci¨®n total, algo que pongo en duda, habremos pasado a una etapa superior, para lo cual se hace necesario una regulaci¨®n espec¨ªfica¡±, explica Garrido Rebolledo. Otra posibilidad es pactar una moratoria hasta que se llegue a un acuerdo. ¡°Si se alcanza esa medida, los perjudicados ser¨ªan los Estados y las industrias, por lo cual la consigna es que no se hable del asunto¡±. Es la posici¨®n que han adoptado los pa¨ªses productores, con los que se alinea Espa?a.
¡°Donde no hay discusi¨®n alguna es en que asistimos apenas al pr¨®logo de lo que puede llegar a ser¡±, vaticina P¨¦rez Triana. ¡°Solo estamos al comienzo de las pesadillas tipo Terminator, que se plasmar¨¢n cuando se desarrolle a¨²n m¨¢s la capacidad de la inteligencia artificial¡±.
Puedes seguir a EL PA?S TECNOLOG?A en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.