La tercera revoluci¨®n en el arte de la guerra
La ¨¦lite de la inteligencia artificial apremia a los cient¨ªficos a pronunciarse sobre las armas aut¨®nomas
![Javier Sampedro](https://imagenes.elpais.com/resizer/v2/https%3A%2F%2Fs3.amazonaws.com%2Farc-authors%2Fprisa%2Ff4fe3a63-24aa-4307-b98b-0898f7504501.png?auth=ad0967079a714237e587294667ed2519efe395806827a3a666768bfa07b00933&width=100&height=100&smart=true)
![Un drone en el aeropuerto de Kandahar (Afganistán).](https://imagenes.elpais.com/resizer/v2/EYUSJURFMG7NRFSPHAAFYN42K4.jpg?auth=03b649938fdf426d295bc48dfb0faa55a9a21bccd39de10d922f5e912d1fe850&width=414)
El problema es que los componentes cient¨ªficos ya existen, y solo falta combinarlos para construir un arma aut¨®noma letal. Bastar¨ªa acoplar los dispositivos de conducci¨®n autom¨¢tica de los coches con un sistema artificial de aprendizaje t¨¢ctico, como el que ya ha probado Google DeeepMind, para construir un robot que rastree una ciudad y destruya a los enemigos. A los enemigos que ¨¦l decida, se entiende. La ¨¦lite de la inteligencia artificial est¨¢ tan preocupada que ha decidido apremiar a los cient¨ªficos a tomar una postura cr¨ªtica ante las armas aut¨®nomas. Esto no son drones: son algo mucho peor que eso.
Los ahora populares drones, cuyos aspectos ¨¦ticos ya discut¨ªan los cient¨ªficos de la computaci¨®n hace 10 o 15 a?os, no son armas aut¨®nomas: tienen elementos aut¨®nomos de bajo nivel, pero dependen del albedr¨ªo humano para decidir sus objetivos. Los drones siguen teniendo un piloto, aunque est¨¦ situado a mil kil¨®metros y no tenga gran cosa que perder si comete un error fatal. Las nuevas armas que permiten la inteligencia artificial y la rob¨®tica son aut¨®nomas en un sentido estricto y perturbador: son ellas quienes seleccionan los objetivos y deciden destruirlos.
Es una pesadilla cl¨¢sica de la ciencia ficci¨®n que sigue siendo una pesadilla cl¨¢sica, pero no de la ciencia ficci¨®n. ¡°Hay mucho en juego¡±, dice el cient¨ªfico de la computaci¨®n Stuart Russell, de la Universidad de California en Berkeley. ¡°Las armas aut¨®nomas letales (LAWS, por lethal autonomous weapons systems) se han descrito como la tercera revoluci¨®n del arte de la guerra, tras la p¨®lvora y la bomba at¨®mica¡±. Russell publica sus advertencias en Nature, junto a seis art¨ªculos cient¨ªficos de revisi¨®n y un editorial que revelan el desasosiego de la ¨¦lite cient¨ªfica ante este asunto.
?Qu¨¦ son las LAWS, o armas letales aut¨®nomas, que inquietan tanto a los cient¨ªficos? No son los misiles de crucero, cuyos objetivos son decididos por humanos, ni los drones actuales, que est¨¢n pilotados por una persona, aunque por control remoto. Ejemplos de LAWS ser¨ªan los quadcopters (cuadric¨®pteros, o helic¨®pteros de cuatro h¨¦lices) y los minitanques armados, capaces de rastrear una ciudad y decidir sus objetivos sin intervenci¨®n humana. No existen todav¨ªa, pero los militares podr¨ªan construirlos en unos a?os, seg¨²n los cient¨ªficos.
?Cu¨¢n extendida est¨¢ entre los cient¨ªficos de la computaci¨®n la actitud de reserva que Russell propone sistematizar? ¡°Es cada vez m¨¢s com¨²n¡±, responde Russell a EL PA?S. ¡°Creo que los tecn¨®logos est¨¢n tomando cada vez m¨¢s conciencia de sus responsabilidades a medida que crece el riesgo de un impacto en el mundo real; nuestra asociaci¨®n profesional (la AAAI, Association for the Advancement of Artificial Intelligence, o Asociaci¨®n para el Avance de la Inteligencia Artificial) ha evolucionado con rapidez desde una actitud de neutralidad calculada, en todos los asuntos sociales y pol¨ªticos, hacia una posici¨®n proactiva que espero que conduzca a una postura pol¨ªtica formal; ¡°?deber¨ªamos haber empezado a trabajar en ello hace 10 a?os!¡±.
En cualquier caso, ?es posible parar esto? ¡°Ser¨¢ dif¨ªcil progresar a trav¨¦s del proceso CCW (Tratado sobre Ciertas Armas Convencionales de la ONU, en Ginebra), que requiere un cuasi-consenso para sacar cualquier cosa adelante. Probablemente necesitamos gente de todo el mundo que presione a sus gobiernos para que se tomen la cuesti¨®n en serio, y quiz¨¢ el proceso para el tratado pueda ocurrir por otros medios, como fue el caso del Tratado de Minas Antipersona; incluso si eso ocurre, seguir¨¢ siendo importante implicar a Estados Unidos y Reino Unido de alguna forma¡±.
Russell, en cualquier caso, considera inevitable que los sistemas sin control humano se construyan. Solo espera que se puedan establecer limitaciones, porque sabe que esas armas ¡°dejar¨¢n a los humanos completamente indefensos, y esto no es un futuro deseable; actualmente, la tecnolog¨ªa se mueve muy r¨¢pido y no podemos permitirnos el lujo de esperar¡±.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.