?Sue?an los androides con batallas?
La ONU estudia el uso b¨¦lico de los robots. Los cient¨ªficos alertan del peligro de dejar que las m¨¢quinas decidan matar
?Se puede dar la licencia para matar a una m¨¢quina? ?Hay alguna forma de que los robots respeten las leyes de la guerra, la Convenci¨®n de Ginebra? Estas preguntas han llegado a?Naciones Unidas, porque han dejado de ser hip¨®tesis de trabajo o planteamientos de ciencia-ficci¨®n para convertirse en un dilema real, ante el que las principales potencias militares del mundo deber¨¢n pronunciarse. Actualmente al menos media docena de pa¨ªses mantienen abiertos programas de armas con capacidad de actuar de forma aut¨®noma (aunque todav¨ªa no de matar), los llamados robots asesinos (Killer Robots), armas aut¨®nomas letales en la terminolog¨ªa de la ONU. Por segunda vez, este organismo internacional tratar¨¢ el tema en Ginebra dentro de la Convenci¨®n de Armas Convencionales (CCW, en sus siglas en ingl¨¦s) en noviembre. "El asunto est¨¢ en Naciones Unidas porque la comunidad internacional se ha dado cuenta de que no se trata de una nueva arma: esto cambia la guerra", asegura Steve Goose, responsable de la divisi¨®n de armamento de Human Rights Watch.
"Todav¨ªa no existen robots asesinos; pero s¨ª la tecnolog¨ªa", afirma Noel Sharkey, profesor de Inteligencia Artificial en la Universidad de Sheffield (Inglaterra), que lleva desde hace siete a?os dedicado a poner el asunto en la agenda internacional y que encabeza una campa?a de 52 organizaciones llamada Stop Killer Robots en la que est¨¢n desde la International Human Rights Clinic de la Universidad de Harvard hasta HRW o Amnist¨ªa Internacional. "El debate es sobre lo lejos que podemos llegar: nuestro objetivo es que se proh¨ªba la delegaci¨®n de matar, que no se pueda dejar esa decisi¨®n en manos de una m¨¢quina", prosigue el profesor Sharkey. El uso militar de los robots tambi¨¦n tiene defensores, que anticipan un futuro en el que se maten los robots y no las personas.
El temor a que los robots se conviertan en asesinos ha sido siempre una pesadilla de la ciencia-ficci¨®n con pel¨ªculas como Terminator o Robocop. De hecho, Isaac Asimov formul¨® en 1942 en su relato C¨ªrculo vicioso las famosas tres leyes de la rob¨®tica, destinadas a garantizar que, por acci¨®n o por omisi¨®n, siguiendo ¨®rdenes o no, un robot no pueda herir a un ser humano. Pero el futuro ya est¨¢ aqu¨ª o, por lo menos, muy cerca (curiosamente el relato de Asimov transcurre en 2015). "Hemos llegado muy lejos en la capacidad de autonom¨ªa, aunque se necesita una inteligencia artificial muy sofisticada de la que todav¨ªa estamos lejos. Algunos cient¨ªficos creen que faltan unos 10 a?os", asegura Steve Goose, de HRW. Angela Kane, la Alta Representante de la ONU para el Desarme, se?al¨® recientemente: "Cualquier arma de guerra es terrible y si la puedes activar sin intervenci¨®n humana, mucho m¨¢s. Cada vez se habla m¨¢s de la creciente automatizaci¨®n de la guerra y estamos muy cerca de que existan armas totalmente automatizadas".
Desde la I Guerra Mundial, donde se utilizaron por primera vez ametralladoras, tanques y aviones de forma masiva, incluso antes, ya que muchos historiadores militares creen que Roma conquist¨® el mundo conocido gracias a que sus armas eran mucho mejores que las de los dem¨¢s, la tecnolog¨ªa ha formado parte de la guerra y la automatizaci¨®n es un desarrollo l¨®gico. Noel Sharkey explica que ya se utiliza en los sistemas para interceptar misiles, como el escudo israel¨ª C¨²pula de Hierro, cuya eficacia se debe en parte a su automatismo (una m¨¢quina siempre ser¨¢ mucho m¨¢s r¨¢pida que un ser humano). Los drones tambi¨¦n han representado una revoluci¨®n tecnol¨®gica, ya que aviones tripulados a distancia, desde miles de kil¨®metros en algunos casos, se han convertido en clave en los enfrentamientos b¨¦licos actuales. Pero en todos los casos, seres humanos, militares profesionales casi siempre, son los que toman la decisi¨®n clave: disparar.
Actualmente, numerosos pa¨ªses desarrollan programas, algunos bastante avanzados, de robots militares con alta capacidad de autonom¨ªa. El x47-B, promovido por el Northrop Grumman dentro del Programa de Sistemas de Combate no Tripulados (UCAS) de la Armada de Estados Unidos, puede aterrizar y despegar solo (sin ning¨²n tipo de control a distancia) en un portaaviones. Reino Unido ha probado este verano un aparato similar en Australia. China est¨¢ desarrollando el Anjian (Espada Negra), otro avi¨®n aut¨®nomo. En tierra, la Agencia de Investigaci¨®n de Proyectos Avanzados de Defensa (DARPA) ha desarrollado un veh¨ªculo blindado aut¨®nomo, de siete toneladas, que tiene el poco tranquilizador nombre de Crusher (Aplastador). Israel ha creado el Guardium, que puede patrullar solo y lleva armas, aunque la decisi¨®n de disparar es siempre humana. Corea del Sur tiene el Samsung SGR-1, que patrulla la frontera con Corea del Norte y est¨¢ trabajando en sistemas para coordinar robots y humanos en el campo de batalla.
Y no se trata solo de robots pensados para combatir. Noel Sharkey describe m¨¢quinas aut¨®nomas dise?adas para disparar gas pimienta y pelotas de goma contra los manifestantes. A finales de 2013, Google compr¨® Boston Dynamics, la octava compa?¨ªa de robots que el gigante de Internet ha adquirido en los ¨²ltimos dos a?os. Pero esta es diferente: no venden al p¨²blico sino que se dedican a investigar para el Pent¨¢gono. Sus principales logros se llaman BigDog?(Gran Perro) y WildCat?(Gato Salvaje), dos aparatos capaces de moverse en terrenos escarpados.
Ninguno de estos dos modelos ha sido probado, que se sepa, en combate real. Como ha escrito Huw Williams, el experto en sistemas no tripulados de la revista militar Jane¡¯s, "ni siquiera los programas m¨¢s avanzados de robots asesinos han logrado m¨¢quinas que puedan actuar por s¨ª solas". "La autonom¨ªa es, por ahora, bastante limitada. Pueden ir de un lugar a otro siguiendo unos par¨¢metros, eso s¨ª, pero, en t¨¦rminos de pensamiento, no estamos todav¨ªa ah¨ª", agreg¨®.
El objetivo de la campa?a Stop Killers Robots es que nunca se lleguen a desarrollar armas con capacidad para decidir matar o no matar por s¨ª solas, como nunca se llegaron a desarrollar los l¨¢seres cegadores, prohibidos antes de su creaci¨®n. Esto es lo que se debatir¨¢ en la ONU el 13 y 14 de noviembre, aunque todav¨ªa la comunidad internacional est¨¢ muy lejos de llegar a un acuerdo. Los robots militares tienen algunos defensores, que consideran que si se utilizasen correctamente podr¨ªan reducir las bajas y, sobre todo, no es sencillo que los pa¨ªses renuncien a poderosos programas militares que otros tambi¨¦n tienen en marcha. Sin embargo, la inmensa mayor¨ªa de la comunidad cient¨ªfica considera que representan un peligro, no la capacidad de autonom¨ªa en s¨ª, pero s¨ª la delegaci¨®n de la decisi¨®n de matar. Por no hablar de que es imposible que una m¨¢quina pueda ser responsable ante la Convenci¨®n de Ginebra.
"La guerra sin reflexi¨®n es una matanza mec¨¢nica", asegur¨® Christof Heyns, el Alto Representante de la ONU para las ejecuciones extrajudiciales, arbitrarias y sumarias cuando este tema se trat¨® por primera vez en Naciones Unidas, el pasado mayo. "De la misma forma que acabar con cualquier vida humana merece una cierta deliberaci¨®n, la decisi¨®n de permitir a m¨¢quinas matar merece, por lo menos, una reflexi¨®n colectiva internacional".?
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.