¡°Hay una gran presi¨®n econ¨®mica para hacer obsoletos a los humanos¡±
En su libro 'Vida 3.0', el profesor del MIT propone argumentos para un debate global que evite que la llegada de la Inteligencia Artificial acabe en desastre

Cuando el rey Midas le pidi¨® a Dionisio transformar en oro todo lo que tocase cometi¨® un fallo de programaci¨®n. No pensaba que el dios ser¨ªa tan literal al concederle el deseo y solo fue consciente de su error cuando vio a su hija convertida en una estatua met¨¢lica. Max Tegmark (Estocolmo, 1967) cree que la inteligencia artificial puede presentar riesgos y oportunidades similares para la humanidad.
El profesor del MIT y director del Future of Life Institute en Cambridge (EE UU) estima que la llegada de una Inteligencia Artificial General (IAG) que supere a la humana es cuesti¨®n de d¨¦cadas. En su visi¨®n del futuro, podr¨ªamos acabar viviendo en una civilizaci¨®n id¨ªlica donde robots superinteligentes har¨ªan nuestro trabajo, crear¨ªan curas para todas nuestras enfermedades o dise?asen sistemas para orde?ar la energ¨ªa descomunal de los agujeros negros. Sin embargo, si no somos capaces de transmitirle nuestros objetivos con precisi¨®n, tambi¨¦n es posible que a esa nueva inteligencia dominante no le interese nuestra supervivencia o, incluso, que asuma un objetivo absurdo como transformar en clips met¨¢licos todos los ¨¢tomos del universo, los que conforman nuestros cuerpos incluidos.
Para evitar el apocalipsis, Tegmark considera que la comunidad global debe implicarse en un debate para orientar el desarrollo de la inteligencia artificial en nuestro beneficio. Esta discusi¨®n deber¨¢ afrontar problemas concretos, como la gesti¨®n de las desigualdades generadas por la automatizaci¨®n del trabajo, pero tambi¨¦n un intenso esfuerzo filos¨®fico que triunfe donde llevamos siglos fracasando y permita definir y acordar qu¨¦ es bueno para toda la humanidad para despu¨¦s inculc¨¢rselo a las m¨¢quinas.
Si se mira a las motivaciones de las compa?¨ªas que est¨¢n desarrollando la IA, la principal es ganar dinero
Estos y otros temas relacionados con la discusi¨®n que Tegmark considera m¨¢s importante para el futuro de la humanidad son los que recoge en su libro Vida 3.0: ser humano en la era de la inteligencia artificial, un ambicioso ensayo que han recomendado gur¨²s como Elon Musk en el que el cosm¨®logo sueco trata de adelantarse a lo que puede suceder durante los pr¨®ximos milenios.
Pregunta. Los humanos, en particular durante los ¨²ltimos dos o tres siglos, hemos tenido mucho ¨¦xito comprendiendo el mundo f¨ªsico, gracias al avance de disciplinas como la f¨ªsica o la qu¨ªmica, pero no parece que hayamos sido tan eficaces entendi¨¦ndonos a nosotros mismos, averiguando c¨®mo ser felices o llegando a acuerdos sobre c¨®mo hacer un mundo mejor para todo el mundo. ?C¨®mo vamos a dirigir los objetivos de la IAG sin alcanzar antes acuerdos sobre estos asuntos?
Respuesta. Creo que nuestro futuro puede ser muy interesante si ganamos la carrera entre el poder creciente de la tecnolog¨ªa y la sabidur¨ªa con la que se gestiona esa tecnolog¨ªa. Para conseguirlo, tenemos que cambiar estrategias. Nuestra estrategia habitual consist¨ªa en aprender de nuestros errores. Inventamos el fuego, la fastidiamos unas cuantas veces y despu¨¦s inventamos el extintor; inventamos el coche, la volvimos a fastidiar varias veces e inventamos el cintur¨®n de seguridad y el airbag. Pero con una tecnolog¨ªa tan potente como las armas at¨®micas o la inteligencia artificial sobrehumana no vamos a poder aprender de nuestros errores. Tenemos que ser proactivos.
Es muy importante que no dejemos las discusiones sobre el futuro de la IA a un grupo de frikis de la tecnolog¨ªa como yo sino que incluyamos a psic¨®logos, soci¨®logos o economistas para que participen en la conversaci¨®n. Porque si el objetivo es la felicidad humana, tenemos que estudiar qu¨¦ significa ser feliz. Si no hacemos eso, las decisiones sobre el futuro de la humanidad las tomar¨¢n unos cuantos frikis de la tecnolog¨ªa, algunas compa?¨ªas tecnol¨®gicas o algunos Gobiernos, que no van a ser necesariamente los mejor cualificados para tomar estas decisiones para toda la humanidad.
P. ?La ideolog¨ªa o la forma de ver el mundo de las personas que desarrollen la inteligencia artificial general definir¨¢ el comportamiento de esa inteligencia?
El Gobierno espa?ol ha rechazado unirse a otros pa¨ªses en la ONU para prohibir las armas letales aut¨®nomas
R. Muchos de los l¨ªderes tecnol¨®gicos que est¨¢n construyendo la IA son muy idealistas. Quieren que esto sea algo bueno para toda la humanidad. Pero si se mira a las motivaciones de las compa?¨ªas que est¨¢n desarrollando la IA, la principal es ganar dinero. Siempre har¨¢s m¨¢s dinero si reemplazas humanos por m¨¢quinas que puedan hacer los mismos productos m¨¢s baratos. No haces m¨¢s dinero dise?ando una IA que es m¨¢s bondadosa. Hay una gran presi¨®n econ¨®mica para hacer que los humanos sean obsoletos.
La segunda gran motivaci¨®n entre los cient¨ªficos es la curiosidad. Queremos ver c¨®mo se puede hacer una inteligencia artificial por ver c¨®mo funciona, a veces sin pensar demasiado en las consecuencias. Logramos construir armas at¨®micas porque hab¨ªa gente con curiosidad por saber c¨®mo funcionaban los n¨²cleos at¨®micos. Y despu¨¦s de inventarlo, muchos de aquellos cient¨ªficos desearon no haberlo hecho, pero ya era demasiado tarde, porque para entonces ya hab¨ªa otros intereses controlando ese conocimiento.
P. En el libro parece que da por hecho que la IA facilitar¨¢ la eliminaci¨®n de la pobreza y el sufrimiento. Con la tecnolog¨ªa y las condiciones econ¨®micas actuales, ya tenemos la posibilidad de evitar una gran cantidad de sufrimiento, pero no lo hacemos porque no nos interesa lo suficiente o no le interesa a la gente con el poder necesario para conseguirlo. ?C¨®mo podemos evitar que eso suceda cuando tengamos los beneficios de la inteligencia artificial?
R. En primer lugar, la tecnolog¨ªa misma puede ser muy ¨²til de muchas maneras. Cada a?o hay mucha gente que muere en accidentes de tr¨¢fico que probablemente no morir¨ªan si fuesen en coches aut¨®nomos. Y hay m¨¢s gente en Am¨¦rica, diez veces m¨¢s, que mueren en accidentes hospitalarios. Muchos de esos se podr¨ªan salvar con IA si se utilizase para diagnosticar mejor o crear mejores medicinas. Todos los problemas que no hemos sido capaces de resolver debido a nuestra limitada inteligencia es algo que podr¨ªa resolver la IA. Pero eso no es suficiente. Como dice, ahora mismo tenemos muchos problemas que sabemos exactamente c¨®mo resolver, como el hecho de que haya ni?os que vivan en pa¨ªses ricos y no est¨¦n bien alimentados. No es un problema tecnol¨®gico, es un problema de falta de voluntad pol¨ªtica. Esto muestra lo importante de que la gente participe en esta discusi¨®n y seleccionemos las prioridades correctas.
Por ejemplo, en Espa?a, el Gobierno espa?ol ha rechazado unirse a Austria y muchos otros pa¨ªses en la ONU en un intento para prohibir las armas letales aut¨®nomas. Espa?a apoy¨® la prohibici¨®n de armas biol¨®gicas, algo que apoyaban los cient¨ªficos de esa ¨¢rea, pero no han hecho lo mismo para apoyar a los expertos en IA. Esto es algo que la gente puede hacer: Animar a sus pol¨ªticos para que afronten estos asuntos y nos aseguremos de que dirigimos la tecnolog¨ªa en la direcci¨®n adecuada.
En los pr¨®ximos tres a?os comenzar¨¢ una nueva carrera armament¨ªstica con armas letales aut¨®nomas
P. La conversaci¨®n que propone en Vida 3.0 sobre la Inteligencia Artificial en el fondo es muy parecida a la que se deber¨ªa tener sobre pol¨ªtica en general, sobre c¨®mo convivimos entre nosotros o como compartimos los recursos. ?C¨®mo crees que el cambio en la situaci¨®n tecnol¨®gica va a cambiar el debate p¨²blico?
R. Creo que va a hacer las cosas m¨¢s dr¨¢sticas. Los cambios producidos por la ciencia se est¨¢n acelerando, todo tipo de trabajos desaparecer¨¢n cada vez m¨¢s r¨¢pido. Muchos se r¨ªen de la gente que vot¨® a Trump o a favor del Brexit, pero su rabia es muy real y los economistas te dir¨¢n que las razones por las que esta gente est¨¢ enfadada, por ser m¨¢s pobres de lo que eran sus padres, son reales. Y mientras no se haga nada para resolver estos problemas reales, su enfado aumentar¨¢.
La Inteligencia Artificial puede crear una cantidad enorme de nueva riqueza, no se trata de un juego de suma cero. Si nos convencemos de que va a haber suficientes impuestos para proporcionar servicios sociales y unos ingresos b¨¢sicos, todo el mundo estar¨¢ feliz en lugar de enfadado. Hay gente a favor de la Renta B¨¢sica Universal, pero es posible que haya mejores formas de resolver el problema. Si los gobiernos van a dar dinero a la gente solo para apoyarles, tambi¨¦n se lo puede dar para que la gente trabaje como enfermeros o como profesoras, el tipo de trabajos que se sabe que dan un prop¨®sito a la vida de la gente, conexiones sociales...
No podemos volver a los criterios de distribuci¨®n del Egipto de los faraones, en los que todo estaba en manos de un pu?ado de individuos, pero si una sola compa?¨ªa puede desarrollar una inteligencia artificial general, es solo cuesti¨®n de tiempo que esa compa?¨ªa posea casi todo. Si la gente que acumule este poder no quiere compartirlo el futuro ser¨¢ complicado.
P. Si no hacemos nada, ?cu¨¢l ser¨ªan las principales amenazas provocadas por el desarrollo de la IA?
R. En los pr¨®ximos tres a?os comenzaremos una nueva carrera armament¨ªstica con armas letales aut¨®nomas. Se producir¨¢n de forma masiva por los superpoderes y en poco tiempo organizaciones como ISIS podr¨¢n tenerlas. Ser¨¢n los AK-47 del futuro salvo que en este caso son m¨¢quinas perfectas para perpetrar asesinatos an¨®nimos. En diez a?os, si no hacemos nada, vamos a ver m¨¢s desigualdad econ¨®mica. Y por ¨²ltimo, hay mucha pol¨¦mica sobre el tiempo necesario para crear una inteligencia artificial general, pero m¨¢s de la mitad de los investigadores en IA creen que suceder¨¢ en d¨¦cadas. En 40 a?os nos arriesgamos a perder completamente el control del planeta a manos de un peque?o grupo de gente que desarrolle la IA. Ese es el escenario catastr¨®fico. Para evitarlo necesitamos que la gente se una a la conversaci¨®n.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
?Tienes una suscripci¨®n de empresa? Accede aqu¨ª para contratar m¨¢s cuentas.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.
Sobre la firma
