Los ¡®robots asesinos¡¯ salen de la ciencia ficci¨®n
La ONU convoca un encuentro internacional sobre el uso b¨¦lico de m¨¢quinas que pueden tomar la decisi¨®n de matar
Los robots asesinos, m¨¢quinas que pueden tomar la decisi¨®n de matar de forma independiente de cualquier control humano, han abandonado la ciencia ficci¨®n para entrar de lleno en la agenda internacional sobre desarme: a partir del pr¨®ximo lunes, la ONU re¨²ne en Ginebra a decenas de expertos durante cinco d¨ªas para estudiar todas las implicaciones de los llamados Sistemas de Armas Aut¨®nomos Letales (LAWS, en sus siglas en ingl¨¦s). El objetivo de los investigadores es convencer a la comunidad internacional para que impulse una prohibici¨®n global de este tipo de armas, que plantean profundos dilemas ¨¦ticos, sobre todo en el terreno de las leyes de la guerra: ?qui¨¦n es responsable si una m¨¢quina aut¨®noma comete un crimen? Todav¨ªa no existen; pero s¨ª la tecnolog¨ªa capaz de desarrollarlas.
¡°Soy muy optimista sobre la posibilidad de que se alcance un tratado para decretar su prohibici¨®n¡±, explica Noel Sharkey, profesor em¨¦rito de Inteligencia Artificial y Rob¨®tica en la Universidad de Sheffield y el acad¨¦mico que ha impulsado la mayor campa?a internacional contra los robots militares, Stop Killer Robots. ¡°Hay muchas naciones implicadas, aunque este tipo de decisiones requieren mucho tiempo¡±, agrega. Sharkey, que lleva casi una d¨¦cada dedicado exclusivamente a este problema, asegura que la reuni¨®n de Ginebra se produce ¡°porque ha habido tanto debate sobre los robots asesinos, que las delegaciones nacionales en la Convenci¨®n sobre Armas Convencionales han decidido convocar a expertos para documentarse a fondo antes de tomar una decisi¨®n¡±.
El objetivo de esta convenci¨®n es el control de lo que se denominan ¡°armas inhumanas¡± y ha arrancado acuerdos internacionales para prohibir, por ejemplo, determinados tipos de minas antipersonales y los l¨¢ser cegadores. Este armamento se prohibi¨® antes de que estuviese operativo y eso es lo que pretenden los cient¨ªficos: que los robots asesinos no lleguen a crearse nunca. Muchos pa¨ªses han desarrollado sistemas de armas aut¨®nomos, como el x47-B de EE UU, un avi¨®n que puede aterrizar y despegar solo. De hecho, la eficacia del escudo israel¨ª C¨²pula de Hierro se basa en la rob¨®tica. Se han inventado armas que se mueven por su cuenta ¨Cpor ejemplo, el Samsung SGR-1 surcoreano que patrulla la frontera con Corea del Norte¨C, pero la decisi¨®n de abrir fuego sigue siendo humana. Por ahora.
Con motivo del encuentro de Ginebra, Human Rights Wacht y Harvard Law School¡¯s International Human Rights Clinic han publicado este jueves un informe que relata lo que implicar¨ªa que las m¨¢quinas con capacidad para decidir sobre la vida y la muerte entrasen en el campo de batalla. Su conclusi¨®n es clara: ¡°Recomendamos prohibir el desarrollo, la producci¨®n y el uso de armas totalmente aut¨®nomas a trav¨¦s de un instrumento legal internacional¡±.
Una de las ideas contra las que lucha la campa?a internacional es que, en principio, no suena mal que sean m¨¢quinas, y no seres humanos, los que hagan las guerras. El panorama que describe este documento se parece bastante a Terminator: ¡°Desde una perspectiva moral, muchas personas encuentran terrible la idea de delegar en m¨¢quinas el poder de tomar decisiones sobre la vida o muerte en los conflictos armados. Adem¨¢s, aunque las armas completamente aut¨®nomas no se dejen llevar por el miedo o la ira, carecer¨ªan de compasi¨®n, una salvaguarda clave para evitar la matanza de civiles.
Debido a que estas armas revolucionar¨ªan la guerra, tambi¨¦n pueden desatar una carrera armamentista. Una vez que estuviesen totalmente desarrolladas, se producir¨¢ una proliferaci¨®n a estados irresponsables o grupos armados no estatales. Algunos cr¨ªticos tambi¨¦n argumentan que el uso de robots podr¨ªa hacer m¨¢s f¨¢cil que los l¨ªderes pol¨ªticos recurrir¨¢n a la fuerza porque reducir¨ªa el riesgo para sus propios soldados¡±. A todo esto, habr¨ªa que sumar la responsabilidad ante las leyes de la guerra. Los expertos trazan el paralelismo con los coches aut¨®nomos, una tecnolog¨ªa plenamente desarrollada, pero no circulan porque no se ha resuelto el problema de la responsabilidad si ocurre un accidente con un coche que conduce una m¨¢quina.
El Comit¨¦ Internacional para el Control de los Robots Armados (ICRAC), formado por cient¨ªficos, abogados, expertos en derechos humanos, ha desarrollado un argumentario para la reuni¨®n de Ginebra con los problemas para la seguridad global que plantean las armas aut¨®nomas. ¡°Nos encontramos en un momento cr¨ªtico en la evoluci¨®n del armamento. Todav¨ªa estamos a tiempo para detener la automatizaci¨®n de la decisi¨®n de matar, para asegurarnos que todas las armas siguen estando controladas por seres humanos¡±, mantiene el texto.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.