¡°No descartar¨ªa que alg¨²n pa¨ªs use 100 millones de genomas para crear un ¡®supersoldado¡±
"Las grandes empresas tecnol¨®gicas tienen m¨¢s poder del que jam¨¢s acumularon las petroleras o la banca", asegura el divulgador Gerd Leonhard. Si no se regula la IA o la ingenier¨ªa gen¨¦tica, augura, llegar¨¢n conflictos internacionales de nuevo cu?o
De profesi¨®n, futur¨®logo. As¨ª podr¨ªa presentarse Gerd Leonhard (Bonn, Alemania, 1961), muy a su pesar porque a ¨¦l no le gusta el t¨¦rmino. Tras dedicarse durante d¨¦cadas a la industria del entretenimiento, este m¨²sico y compositor acab¨® reenfocando su carrera casi por accidente a la escritura y las conferencias. En su ¨²ltimo libro (Tecnolog¨ªa versus humanidad. El futuro choque entre hombre y m¨¢quina, The Futures Agency), el alem¨¢n explora los l¨ªmites de la tecnolog¨ªa y su relaci¨®n con el ser humano. Leonhard fue uno de los ponentes estrella de enLIGHTED, el evento paralelo organizado por Telef¨®nica en el South Summit 2018.
- P. ?Debemos temer a las m¨¢quinas?
- R. Deberemos hacerlo si las dejamos crecer hasta parecerse a nosotros. Tambi¨¦n deber¨ªamos temer a las m¨¢quinas que aprendan a hacer lo que nosotros hacemos, aunque eso sea inevitable. Tener algo de miedo es ¨²til, pero creo que nos quedan al menos 50 a?os antes de que las m¨¢quinas lleguen a razonar y pensar de forma parecida a los humanos. Ser¨¢ entonces cuando debamos temerlas. Entre tanto, debemos atender los cambios sociales, educativos y laborales que ya est¨¢n provocando.
- P. ?Crees entonces que llegaremos a ver una inteligencia artificial general?
- R. Los ordenadores llegar¨¢n a tener una potencia casi ilimitada. Habr¨¢ datos por todas partes y m¨¢quinas inteligentes, aunque no tendr¨¢n inteligencia emocional. ?Llegar¨¢n a tenerla alg¨²n d¨ªa? Puede, pero eso queda muy, muy lejos. En lo que deber¨ªamos centrarnos ahora es en c¨®mo est¨¢n cambiando las m¨¢quinas nuestra cultura y en qu¨¦ deber¨ªamos impedir que hagan. Las empresas est¨¢n explorando sin ninguna restricci¨®n qu¨¦ se puede automatizar y qu¨¦ no. La cuesti¨®n ser¨ªa decidir qu¨¦ es lo que no deber¨ªamos dejar que se automatice para seguir siendo lo que somos.
- P. ?C¨®mo deber¨ªamos gestionar estos 50 a?os que, como m¨ªnimo, quedan hasta que llegue una IA general?
- R. Necesitamos una moratoria del desarrollo de tecnolog¨ªa como arma, como ya existe por ejemplo con las nucleares. La inteligencia artificial, la edici¨®n del genoma y la ingenier¨ªa gen¨¦tica tienen mucho que aportar al mundo, pero debemos asegurarnos de que no se usen para el mal. Estas tecnolog¨ªas est¨¢n ahora fuera de control, las empresas pueden investigar lo que quieran. El genoma nos puede ayudar a erradicar el c¨¢ncer y el mundo seguro que ser¨¢ mejor con la IA, pero depende de nosotros que no se cruce la l¨ªnea roja.
Propongo la creaci¨®n de un Comit¨¦ ?tico Digital, una organizaci¨®n global que se dedique a pensar de forma profesional qu¨¦ deber¨ªamos y qu¨¦ no deber¨ªamos hacer y a tratar de que nos pongamos de acuerdo en torno a unas reglas simples de funcionamiento. Por ejemplo, que si automatizamos pagamos un impuesto, de manera que podamos hacer que la gente aprenda otro empleo. Tampoco hay que usar las m¨¢quinas como armas ni dejar que se controlen ellas mismas, por ejemplo para matar. Creo que todos podr¨ªamos estar de acuerdo en ello.
Tenemos unos diez a?os para decidir c¨®mo vamos a querer que sea el ser humano del futuro¡±?
Tenemos unos diez a?os para decidir c¨®mo vamos a querer que sea el ser humano del futuro¡±?
- R. El mayor problema que tenemos hoy es que las grandes empresas y plataformas de internet tienen m¨¢s poder del que jam¨¢s tuvieron las petroleras o bancos. Microsoft fue una empresa poderosa, un cuasi monopolio, pero Google, Amazon o Facebook, Alibaba, Baidu o Tencent est¨¢n literalmente gobernando el mundo. El futuro es suyo, no de la gente. Los sectores energ¨¦tico y financiero se regularon; el suyo es un terreno completamente virgen y libre. Eso es extremadamente peligroso, porque ?c¨®mo regulas algo que implique que alguien deje de ganar decenas o centenares de miles de millones? Si queremos que se autorregulen, debemos deshacer parte de lo que se ha hecho. De eso va la ¨¦tica. Puede que lo que hagan no sea ilegal, pero s¨ª poco ¨¦tico. Al final ambas cosas atentan contra los humanos.
- P. Ya estamos viendo que los algoritmos tienen sesgos. ?Qu¨¦ m¨¢s podemos esperar de ellos?
- R. El problema es que las compa?¨ªas enfocadas en tecnolog¨ªas complejas, como el internet de las cosas (IoT, en sus siglas inglesas), prueban sus desarrollos y, si funcionas comercialmente, siguen para adelante. El problema es que todo lo que est¨¦ conectado es transparente, y por tanto t¨² tambi¨¦n te conviertes en algo transparente. Y nadie se preocupa por eso, porque no forma parte del negocio. Necesitamos hacer que las empresas sean responsables de lo que hacen. Si desarrollas productos en el IoT debes ser responsable de su seguridad. Es una tecnolog¨ªa genial, pero en manos de un gobierno autocr¨¢tico puede servir para tener a un pa¨ªs entero vigilado, como pasa en Turqu¨ªa. Debemos asegurarnos de tener unas buenas reglas. Todo pol¨ªtico deber¨ªa superar un examen ¨¦tico, una especie de carnet de conducir de la tecnolog¨ªa. Hay que asegurarse de que los responsables p¨²blicos entienden qu¨¦ hace falta hacer exactamente para construir un buen futuro.
No podemos sentarnos a ver c¨®mo China desarrolla un programa de edici¨®n del genoma y luego tratar de negociar con ellos¡±
- P. ?Hasta qu¨¦ punto crees que los robots y la tecnolog¨ªa en sentido amplio nos cambiar¨¢n como humanos?
- R. Los cambios van r¨¢pido, pero no tanto. Las m¨¢quinas no son tan listas. No tenemos robots en nuestro flujo sangu¨ªneo. Y eso no se aprobar¨¢ el a?o que viene¡ pero quiz¨¢s s¨ª en cinco. Tenemos tiempo, pero no podemos sentarnos a esperar c¨®mo China desarrolla un programa de edici¨®n del genoma y luego tratar de hablar con ellos para que recapaciten. Ser¨ªa muy mala idea. Todo esto ya est¨¢ sucediendo. Tenemos unos diez a?os para decidir c¨®mo vamos a querer que sea el ser humano del futuro. La mayor¨ªa de la gente quiere ser humana, y el objetivo de la vida es la felicidad. La tecnolog¨ªa, por s¨ª sola, no nos har¨¢ m¨¢s felices.
- P. Dentro de unos 50 a?os, en caso de que se llegue a desarrollar una IA general, ?hasta qu¨¦ punto seremos humanos?
- R. Para entonces habr¨¢ que trazar una l¨ªnea gruesa entre las m¨¢quinas y nosotros para controlarlas, si todav¨ªa podemos hacerlo. Seremos como una especie de parque tem¨¢tico: estaremos protegidos y las m¨¢quinas har¨¢n todo el trabajo. Si podemos llegar a ese punto, realmente viviremos en un planeta distinto. Es dif¨ªcil saber qu¨¦ reglas lo regir¨¢n. Pero es altamente improbable que podamos controlar una inteligencia artificial general. Porque lo primero que har¨¢ la computadora es asegurarse de existir, y ya habr¨¢ previsto la posibilidad de que alguien pueda a desenchufarla.
Debemos centrarnos en ser muy humanos. Preferir¨ªa que mi hijo se fuera tres meses a la India y se relacionara con mucha gente distinta a que se saque un MBA¡±
- P. ?Es realista pensar en acuerdos internacionales para regular la IA? Hace d¨¦cadas que se habla de que hay que combatir el cambio clim¨¢tico y el primer acuerdo se rubric¨® hace dos a?os¡
- R. Los humanos responden ante las malas situaciones, no cambiamos las cosas voluntariamente. Efectivamente, se ha visto con el cambio clim¨¢tico: vamos a comer mierda en los pr¨®ximos 20 a?os. Con la IA puede que asistamos a un gran accidente, como por ejemplo el uso de 100 millones de genomas para crear un superhumano, una especie de supersoldado. Eso podr¨ªa causar una enorme cantidad de problemas en t¨¦rminos de muertes. Y entonces nos movilizar¨ªamos. Incluso puede que veamos una guerra en torno a la ingenier¨ªa gen¨¦tica.
- P. Antes has mencionado a China antes. ?Est¨¢s pensando en ese pa¨ªs?
- R. S¨ª. Es bastante probable que en siete u ocho a?os podamos tener un incidente internacional en el que haya que forzar al gobierno chino a parar el desarrollo de la IA. Pero, afortunadamente, la gente responde cuando pasan cosas. Tras Fukushima vimos que no quer¨ªamos energ¨ªa nuclear.
- P. ?C¨®mo deber¨ªan prepararse los ni?os de hoy, quienes realmente vivir¨¢n todos estos cambios, para afrontarlos en condiciones?
- R. Los ni?os deben aprender que la tecnolog¨ªa no es la salvadora de la humanidad, sino una herramienta. Las habilidades que las m¨¢quinas tardar¨¢n en adquirir son innatas para nosotros, por eso debemos estimularlas: pasi¨®n, entendimiento, intuici¨®n, imaginaci¨®n, creatividad¡ Debemos centrarnos en ser muy humanos. El futuro no est¨¢ en saber hacer bien un trabajo, sino en inventarlo. Y eso es lo que debemos ense?arle a los ni?os. El problema es que eso no se aprende en las escuelas, sino en la vida real. Preferir¨ªa que mi hijo se fuera tres meses a la India y se relacionara con mucha gente distinta a que se saque un MBA.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.