Cuando los robots tomen el mando y hagan la guerra
La carta firmada y presentada en Buenos Aires por Stephen Hawking y varios cerebros de la inteligencia artificial, es una se?al n¨ªtida de la gran preocupaci¨®n que el asunto suscita entre la ¨¦lite cient¨ªfica
La primera reflexi¨®n abarcadora sobre la coexistencia entre los robots y los humanos no fue obra de un cient¨ªfico de la computaci¨®n ni de un fil¨®sofo ¨¦tico, sino de un novelista. Isaac Asimov formul¨® las tres ¡°leyes de la rob¨®tica¡± que deber¨ªan incorporarse en la programaci¨®n de cualquier aut¨®mata lo bastante avanzado como para suponer un peligro: ¡°No da?ar a los humanos, obedecerles salvo conflicto con lo anterior y autoprotegerse salvo conflicto con todo lo anterior¡±. Las tres leyes de Asimov configuran una propuesta s¨®lida y autoconsistente, y cuentan con apoyo entre la comunidad de la inteligencia artificial, que reconoce, por ejemplo, que cualquier sistema aut¨®nomo funcional debe ser capaz de autoprotegerse.
Pero es muy probable que Asimov pecara de ingenuo. Basta eliminar la primera ley (y los ¡°salvo conflicto con lo anterior¡±) para convertir a un robot en un carnicero implacable y brutal, un asesino de acero y silicio ideal para asesinar al l¨ªder inconveniente, fumigar a la etnia defectuosa, subyugar a la poblaci¨®n inoportuna. Y no estamos hablando de 2050, sino de un par de a?os o tres, la clase de plazo de la que siempre se olvidan los escritores de ciencia ficci¨®n. Los mismos sistemas inteligentes que llevan ¨²ltimamente los coches, unidos a un sistema artificial de aprendizaje t¨¢ctico, como el que ya ha desarrollado Google DeepMind, para fabricar un enjambre de robots que rastree una ciudad hasta el ¨²ltimo rinc¨®n de la ¨²ltima habitaci¨®n y elimine a todo lo que interprete como un enemigo. De forma aut¨®noma, sin ning¨²n control humano. Son los propios robots quienes seleccionan sus objetivos: quienes deciden a qui¨¦n asesinar y lo asesinan.
Lo m¨¢s f¨¢cil es empezar a hacer chistes sobre esto, y las redes sociales y los humoristas de la tele nos abrumar¨¢n con ellos durante meses y a?os por venir, pero el asunto tiene muy poca gracia. La carta firmada por mil cient¨ªficos contra los robots militares aut¨®nomos, presentada la semana pasada en Buenos Aires por Stephen Hawking y varios cerebros de la inteligencia artificial, es una se?al n¨ªtida de la gran preocupaci¨®n que el asunto suscita entre la ¨¦lite cient¨ªfica. Algunos de ellos lo han calificado como ¡°la tercera revoluci¨®n en el arte de la guerra, tras la p¨®lvora y la bomba at¨®mica¡±. Y recordemos que los chistes sobre la bomba at¨®mica se acabaron en 1945.
Los promotores de la iniciativa aseguran que esta actitud de precauci¨®n se est¨¢ extendiendo de forma eficaz entre los cient¨ªficos de la computaci¨®n y la rob¨®tica. Como ya les pas¨® a los f¨ªsicos nucleares tras la II Guerra Mundial, y a los bi¨®logos moleculares en los a?os setenta, los rob¨®ticos se han dado cuenta de que las inmensas posibilidades de su ciencia abren unos no menos enormes caminos para la guerra, el terrorismo y la destrucci¨®n.
Y creen estar a tiempo de pararlo. Siempre hay que creer en algo.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.