¡°En 50 a?os podr¨ªamos tener un Terminator. Hay que pararlo ahora¡±
Los expertos en inteligencia artificial advierten de los peligros de los robots armados y piden a la ONU que los proh¨ªba
Los expertos en inteligencia artificial est¨¢n asustados con la posibilidad de que sus avances acaben como las investigaciones que llevaron a la bomba nuclear. Toby Walsh, investigador estrella del centro de ¨¦lite australiano NICTA, es el principal promotor de la carta que, liderada por Stephen Hawking, exige la prohibici¨®n de los robots asesinos. El texto ha logrado ya m¨¢s de 17.000 firmas de cient¨ªficos, entre ellos 2.500 especialistas en rob¨®tica, y ha monopolizado la atenci¨®n en el mayor congreso del mundo sobre inteligencia artificial, que este a?o se ha celebrado en Buenos Aires. "Tenemos detr¨¢s a muchas organizaciones y sobre todo al mundo cient¨ªfico. Esto es imparable", explica Walsh en un receso del congreso. "El objetivo es lograr que la ONU haga una prohibici¨®n expresa de los robots asesinos. Eso lleva tiempo, pero lo lograremos. Es evidente que una organizaci¨®n terrorista no va a hacer caso a la ONU, pero s¨ª las empresas de armamento. Por ejemplo, se ha logrado vetar los l¨¢ser para cegar a prisioneros. Y ya no se fabrican. Usted no los va a ver ni siquiera en Siria. A una empresa de armamento no le interesa ir contra la ONU, perder¨ªa a sus mejores clientes".
Los robots asesinos caer¨ªan r¨¢pidamente en manos de terroristas
Walsh sostiene que la carrera se ha iniciado ya. "Sabemos que EE UU est¨¢ trabajando en proyectos de robots asesinos. Y es presumible que otros est¨¦n en esa carrera para no quedarse atr¨¢s. No sabemos lo que hacen otros pa¨ªses m¨¢s opacos como China pero le doy un dato: por primera vez en la historia, este congreso, el m¨¢s importante del mundo, tiene m¨¢s proyectos chinos ¡ªno militares¡ª que EE UU. Est¨¢n muy avanzados en inteligencia artificial", explica.
Para los pa¨ªses son una tentaci¨®n muy fuerte, pero quienes conocen bien la tecnolog¨ªa, como Walsh, y lo accesible que podr¨ªa ser, se movilizan para frenarlos. "Son mucho m¨¢s baratos y eficaces que un soldado, no necesitan dormir ni comer, no sufren el fr¨ªo ni el calor, y los podemos hacer tan peque?os que se pueden meter en cualquier parte". La carta no va contra los drones, porque al final de la cadena hay un ser humano que toma la decisi¨®n de disparar o no. Pero s¨ª contra las armas aut¨®nomas. "En un mundo ideal, dejar¨ªamos que los robots de uno y otro bando se mataran en un desierto y los contendientes aceptar¨ªan el resultado. Como una competici¨®n deportiva. Y evitar¨ªamos muertes humanas. Pero el mundo no es as¨ª. Esos robots no tardar¨ªan en caer en manos del ISIS o cualquier otro y servir¨ªan para aterrorizar a la poblaci¨®n, para hacer limpiezas ¨¦tnicas, para cualquier tipo de horror", advierte Walsh.
China est¨¢ muy avanzada en inteligencia artificial, por primera vez en este congreso son l¨ªderes
La ciencia ficci¨®n no est¨¢ tan lejos, aunque no sea exactamente como la imagin¨® Hollywood. "La gente piensa en Terminator, pero no hace falta llegar ah¨ª. Robots mucho menos sofisticados, con un explosivo, un arma o un veneno, pueden ser mucho m¨¢s da?inos. Y se pueden fabricar ya. En este congreso, si usted pregunta, la mayor¨ªa le dir¨¢ que en unos 50 a?os podr¨ªamos tener un Terminator. Por eso hay que pararlo ahora. Pueden ser comparables a la bomba at¨®mica, con un problema a?adido: para la bomba necesitas uranio enriquecido, no es nada f¨¢cil, se puede controlar. Un robot asesino es mucho m¨¢s sencillo de programar, una vez que se invente, solo necesitas un buen hacker que sepa hacer el software o robarlo", se inquieta Walsh.
Lo m¨¢s llamativo es que son precisamente los especialistas en inteligencia artificial los que quieren poner algunos l¨ªmites. "Nosotros somos los m¨¢s interesados en que la inteligencia artificial se utilice bien. Por eso, porque sabemos de sus enormes posibilidades para facilitar la vida a la gente, queremos prohibir los robots asesinos que toman decisiones de forma aut¨®noma. Sabemos c¨®mo programarlos para que maten pero no sabemos c¨®mo introducir la ¨¦tica en un robot. Esta es una tarea inmensa, que no podemos abordar solos los cient¨ªficos", asegura el profesor australiano.
No sabemos c¨®mo introducir la ¨¦tica en un robot
No solo los robots asesinos generan preguntas dif¨ªciles. "Hay muchas decisiones ¨¦ticas que tomar en los pr¨®ximos a?os. Por ejemplo, los coches que conducen solos. Van a tener que tomar decisiones de vida o muerte, por ejemplo si les viene un coche en direcci¨®n contraria. Van a tener que decidir qui¨¦n muere. Pero a la vez estamos comprobando que conducen mucho mejor, no tienen accidentes. Yo creo que nuestros hijos no van a conducir, llegar¨¢ un momento en que la gente dir¨¢ que es un asunto demasiado delicado para dejarlo en manos de personas inexpertas. Pero hay que tomar esa decisi¨®n de dejar a las m¨¢quinas que elijan por s¨ª solas", explica Walsh.
En cualquier caso, el experto australiano y sus colegas van a seguir investigando para avanzar en el desarrollo de la inteligencia artificial. "No podemos desinventar las cosas que ya hemos inventado. Tenemos que ir hacia delante. La tecnolog¨ªa ha favorecido el enorme bienestar que tenemos. El cambio que llega con la inteligencia artificial es similar al de la revoluci¨®n industrial. La gente dej¨® la agricultura por la industria, el campo por la ciudad. Ahora, los robots est¨¢n destruyendo miles de puestos de trabajo. Y va a ir a m¨¢s. Pero se crear¨¢n nuevos trabajos. Y aqu¨ª la clave es la educaci¨®n. Una persona con mucha formaci¨®n es mucho m¨¢s dif¨ªcil de reemplazar por un robot que alguien que solo cumple tareas mec¨¢nicas", resume.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
?Tienes una suscripci¨®n de empresa? Accede aqu¨ª para contratar m¨¢s cuentas.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.