Anticiparse a Terminator
La ONU re¨²ne a un grupo de expertos para abordar el desarrollo de sistemas de armas letales aut¨®nomas
¡°Terminator, un robot con forma humana programado para tomar decisiones de forma aut¨®noma y causar da?o no existe¡±. Lo afirma Reyes Jim¨¦nez, profesora de Derecho Internacional P¨²blico de la Universidad Pablo de Olavide y doctoranda experta en sistemas de armas aut¨®nomas letales (LAWS por sus siglas en ingl¨¦s) en relaci¨®n con el Derecho Internacional Humanitario. Jim¨¦nez participa en el grupo de Naciones Unidas sobre este armamento, del que forman parte 125 Estados, incluidos los productores de esta tecnolog¨ªa. El objetivo es establecer las reglas de uso y anticiparse a que se desarrollen m¨¢s los misiles ¡°bonitos, nuevos e inteligentes¡± de los que Donald Trump alarde¨® el pasado 12 de abril.
¡°Las armas actuales son m¨¢quinas semiaut¨®nomas cuyos algoritmos definen su actuaci¨®n. Pero no improvisan, no matan libremente. Est¨¢n sometidas a un control humano, bien dirigidas por control remoto o supervisadas¡±, advierte Jim¨¦nez. Esta circunstancia es clave porque es la base de la futura regulaci¨®n, si sale adelante. Las funciones cr¨ªticas frente a un objetivo (detecci¨®n, selecci¨®n y disparo) est¨¢n en manos de personas y as¨ª debe seguir.
Uno de los problemas es que el avance tecnol¨®gico permita que entre una fase cr¨ªtica y otra transcurran nanosegundos y el controlador humano no sea capaz de tomar una decisi¨®n a tiempo. Israel cuenta con un sistema que permite una secuencia autom¨¢tica entre las fases cr¨ªticas de 20 segundos, un tiempo escaso para que un experto humano ratifique la amenaza, valore la proporcionalidad de la respuesta y establezca posibles precauciones ante posibles da?os ajenos al conflicto, como destruir un colegio o un hospital cercano al objetivo. ¡°Esos principios b¨¢sicos solo los puede dilucidar un humano y en la reuni¨®n internacional hay unanimidad en que esas acciones cr¨ªticas jam¨¢s deben delegarse en la inteligencia artificial¡±, afirma la profesora.
El ¨²ltimo ataque de Estados Unidos, en colaboraci¨®n con Francia y Reino Unido, sobre Siria con los ¡°bonitos, nuevos e inteligentes¡± misiles de Trump segu¨ªan esos preceptos. La selecci¨®n de objetivos fue previa, fruto de la informaci¨®n de los servicios de inteligencia, la localizaci¨®n fue programada por los equipos militares y los da?os se limitaron a infraestructuras.
Pero el avance tecnol¨®gico es imparable y los expertos internacionales no quieren dejar la regulaci¨®n del uso de estas armas para cuando ya sea tarde. Pa¨ªses de Sudam¨¦rica y ?frica, as¨ª como organizaciones como Stop Killer Robots, reclaman un marco jur¨ªdico internacional que proh¨ªba de forma preventiva el desarrollo de las armas aut¨®nomas. Francia y Alemania apuestan por una declaraci¨®n pol¨ªtica (no jur¨ªdica) de adhesi¨®n voluntaria en la que se establezca un c¨®digo de buenas pr¨¢cticas basado en la transparencia. Estados Unidos, que se centra en defender c¨®mo los avances suponen beneficios en sectores no b¨¦licos (asistencia humanitaria, control de desastres o incluso atenci¨®n sanitaria o social), reh¨²ye de compromisos concretos y de la "estigmatizaci¨®n o prohibici¨®n" de "las tecnolog¨ªas emergentes en el ¨¢rea de los sistemas de armas aut¨®nomas", por las que apuesta.
En una l¨ªnea similar se encuentra China. "El impacto de las tecnolog¨ªas emergentes merecen una discusi¨®n plena, objetiva e imparcial. Hasta que esa discusi¨®n se complete, no deber¨ªa haber ninguna premisa o prejuicio que impida el desarrollo de inteligencia artificial", defiende el gigante asi¨¢tico en el grupo de la ONU.
Rusia se centra en la responsabilidad de su uso. "No dudamos de la necesidad de mantener el control humano sobre la m¨¢quina. La responsabilidad legal debe recaer sobre los Estados y los individuos (...) Ellos deben tomar todos los pasos posibles para prevenir p¨¦rdidas, incluyendo las civiles", relatan los representantes de la federaci¨®n en el foro de Ginebra.
¡°La reuni¨®n de Naciones Unidas demuestra que, al menos, hay un ¨¢nimo negociador y el compromiso es elaborar un informe que propondr¨¢ un acuerdo por consenso¡±, destaca la experta sevillana.
Uno de los miedos del desarrollo de armas tecnol¨®gicas aut¨®nomas, advierte Jim¨¦nez, es la concepci¨®n militar de videojuego, donde la distancia sobre las v¨ªctimas y la falta de percepci¨®n de las consecuencias impida la dif¨ªcil visi¨®n humana de la guerra. Para evitar esta deshumanizaci¨®n, Pascale Fung, de la Universidad de Ciencia y Tecnolog¨ªa de Hong Kong, considera imprescindible la formaci¨®n en ¨¦tica del ingeniero rob¨®tico. La experta sevillana a?ade tambi¨¦n la importancia de la formaci¨®n del personal militar encargado de tomar las decisiones cr¨ªticas. ¡°El ser humano es el responsable¡±, concluye. En la misma l¨ªnea se encuentra la Uni¨®n Europea.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.