El futuro de la humanidad en sus manos
Un equipo de expertos investiga en un Instituto de Oxford los riesgos de extinci¨®n del ser humano
Necesitamos sabidur¨ªa para enfrentar el futuro. Para saber si los progresos tecnol¨®gicos de vanguardia van en la direcci¨®n adecuada o no; si favorecen al ser humano o todo lo contrario. Para tener una idea de qu¨¦ hacer si se presentan escenarios que ponen en riesgo la supervivencia de la especie, como los derivados de la amenaza nuclear, la modificaci¨®n de microbios letales o la creaci¨®n de mentes digitales m¨¢s inteligentes que el hombre. A reflexionar sobre este tipo de cuestiones se dedican un pu?ado de cerebros en un lugar ubicado en Oxford y llamado el Instituto para el Futuro de la Humanidad.
Al frente de un heterodoxo grupo de fil¨®sofos, tecn¨®logos, f¨ªsicos, economistas y matem¨¢ticos se encuentra un fil¨®sofo formado en f¨ªsica, neurociencia computacional y matem¨¢ticas, un tipo que desde su adolescencia se encontr¨® sin interlocutores con los cuales compartir sus inquietudes acerca de Schopenhauer, un sueco de 42 a?os que se pasea por las instalaciones del Instituto con un brebaje hecho a base de vegetales, prote¨ªnas y grasas al que denomina elixir y que escucha audiolibros al doble de velocidad para no perder un segundo de su preciado tiempo. Se llama Nick Bostrom, y es el autor de Superinteligencia: Caminos, Peligros, Estrategias, un libro que ha causado impacto, una reflexi¨®n acerca de c¨®mo afrontar un futuro en que la inteligencia artificial supere a la humana, un ensayo que ha recibido el respaldo expl¨ªcito de cerebros de Silicon Valley como Bill Gates y Elon Musk, de fil¨®sofos como Derek Parfit o Peter Singer, de f¨ªsicos como Max Tegmark, profesor del Massachusetts Institute of Technology. Un trabajo que, adem¨¢s, se col¨® en la lista de los libros m¨¢s vendidos que elabora The New York Times Book Review. La ONU le reclama para que exponga su visi¨®n, sociedades cient¨ªficas como The Royal Society le invitan a dar conferencias, una de sus charlas TED lleva ya contabilizados m¨¢s de 1.747.000 visionados. Y Stephen Hawking ya ha alertado al mundo: hay que tener cuidado con la Inteligencia Artificial.
El Instituto para el Futuro de la Humanidad ¡ªFHI, siglas en ingl¨¦s¡ª es un espacio con salas de reuniones bautizadas con nombres de h¨¦roes an¨®nimos que con un gesto salvaron el mundo ¡ªcomo Stanislav Petrov, teniente coronel ruso que evit¨® un incidente nuclear durante la Guerra Fr¨ªa¡ª donde fluyen las ideas, los intercambios de impresiones, donde florecen hip¨®tesis y an¨¢lisis. Sobre todo, por las tardes-noches: el jefe es, como ¨¦l mismo confiesa, un noct¨¢mbulo; se queda en la oficina hasta las dos de la madrugada.
¡°En el momento en que sepamos c¨®mo hacer m¨¢quinas inteligentes, las haremos¡±, afirma Bostrom, en una sala del Instituto que dirige, ¡°y para entonces, debemos saber c¨®mo controlarlas. Si tienes un agente artificial con objetivos distintos de los tuyos, cuando se vuelve lo suficientemente inteligente, es capaz de anticipar tus acciones y de hacer planes teniendo en cuenta los tuyos, lo cual podr¨ªa incluir esconder sus propias capacidades de modo estrat¨¦gico¡±. Expertos en Inteligencia Artificial que cita en su libro aseguran que hay un 90% de posibilidades de que entre 2075 y 2090 haya m¨¢quinas tan inteligentes como los humanos. En la transici¨®n hacia esa nueva era habr¨¢ que tomar decisiones. Inocular valores morales a las m¨¢quinas, tal vez. Evitar que se vuelvan contra nosotros.
A analizar este tipo de supuestos y escenarios se dedica este hombre que en estos d¨ªas lee intensivamente sobre machine learning (aprendizaje autom¨¢tico, rama de la inteligencia artificial que explora t¨¦cnicas para que las computadoras puedan aprender por s¨ª solas) y econom¨ªa de la innovaci¨®n. Para Bostrom el tiempo nunca es suficiente. Leer, leer, leer, asentar conocimientos, profundizar, escribir. ¡°El tiempo es precioso. Es un bien de gran valor que constantemente se nos desliza entre los dedos¡±.
La gente parece olvidar la guerra nuclear. Un cambio para mal en la geopol¨ªtica podr¨ªa ser un peligro
Estudiar, formular hip¨®tesis, desarrollarlas, anticipar escenarios. Es lo que se hace en este Instituto donde se cultiva la tormenta de ideas y la videoconferencia, un laberinto de salas dominadas por pizarras velleda con diagramas y en cuyo pasillo de entrada cuelga un cartel que reproduce la portada de Un mundo feliz, la visionaria distop¨ªa firmada por Aldous Huxley en 1932. Un total de 16 profesionales trabajan aqu¨ª. Publican en revistas acad¨¦micas, hacen informes de riesgos para compa?¨ªas tecnol¨®gicas, para gobiernos (por ejemplo, el finland¨¦s) o para la ONU, que se dispone a crear su primer programa sobre Inteligencia Artificial ¡ªuno de cuyos representantes andaba la semana pasada por las oficinas del FHI¡ª. Niel Bowerman, director adjunto, f¨ªsico del clima y exasesor del equipo pol¨ªtico de Energ¨ªa y Medio Ambiente de Barack Obama, explica que en el instituto siempre estudian c¨®mo de grande es un problema, cu¨¢nta gente trabaja en ¨¦l y c¨®mo de f¨¢cil es realizar progresos en esa ¨¢rea para determinar los campos de estudio.
Bostrom es el hombre que comanda el Instituto, el que decide por d¨®nde se transita, el visionario. Desarrolla su labor gracias al impulso filantr¨®pico de James Martin, millonario interesado en las cuestiones de los riesgos existenciales del futuro que impuls¨® el FHI hace diez a?os para que se estudie y reflexione en torno a aquellas cosas en las que la industria y los gobiernos, guiados por sus particulares intereses, no tienen por qu¨¦ pensar.
Al fil¨®sofo sueco, que form¨® parte en 2009 de la lista de los 100 mayores pensadores globales de la revista Foreign Policy, le interesa estudiar, sobre todo, amenazas lejanas, a las que no le gusta poner fecha. ¡°Cuanto m¨¢s largo sea el plazo¡±, dice, "mayores son las posibilidades de un escenario de extinci¨®n o de era posthumana¡±. Pero existen peligros a corto plazo. Los que m¨¢s le preocupan a Bostrom son los que pueden afectar negativamente a las personas como las plagas, la gripe aviar, los virus, las pandemias.
En cuanto a la Inteligencia Artificial y su cruce con la militar, dice que el riesgo m¨¢s claro lo presentan los drones y las armas letales aut¨®nomas. Y recuerda que la guerra nuclear, aunque tiene pocas probabilidades de llegar, sigue siendo un peligro latente. ¡°La gente parece haber dejado de preocuparse por ella; un cambio para mal en la situaci¨®n geopol¨ªtica podr¨ªa convertirse en un gran peligro¡±.
¡°Hay una carrera entre nuestro progreso tecnol¨®gico y nuestra sabidur¨ªa, que va mucho m¨¢s despacio
La biotecnolog¨ªa, y en particular, la posibilidad que ofrece el sistema de edici¨®n gen¨¦tica CRISPR de crear armas biol¨®gicas, tambi¨¦n plantea nuevos desaf¨ªos. ¡°La biotecnolog¨ªa est¨¢ avanzando r¨¢pidamente va a permitir manipular la vida, modificar microbios con gran precisi¨®n y poder. Eso abre el paso a capacidades muy destructivas¡±. La tecnolog¨ªa nuclear, se?ala, se puede controlar. La biotecnolog¨ªa, la nanotecnolog¨ªa, lo que haga alguien un garaje con un equipo de segunda mano comprado en EBay, no tanto. Con poco se puede hacer mucho da?o.
Superada su etapa transhumanista ¡ªfund¨® en 1998 junto a David Pearce la Asociaci¨®n Mundial Transhumanista, colectivo que aboga de modo entusiasta por la expansi¨®n de las capacidades humanas mediante el uso de las tecnolog¨ªas¡ª, Bostrom ha encontrado en la Inteligencia Artificial el terreno perfecto para desarrollar su trabajo. La carrera en este campo se ha desatado, grandes empresas ¡ªGoogle compr¨® en 2014 la tecnol¨®gica DeepMind¡ª y Estados pugnan por hacerse con un sector que podr¨ªa otorgar poderes inmensos, casi inimaginables.
Uno de los escenarios que proyecta en su libro, cuya versi¨®n en espa?ol publica el 25 de febrero la editorial Teell, es el de la toma de poder por parte de una Inteligencia Artificial (AI, siglas en ingl¨¦s). Se produce una explosi¨®n de inteligencia. Las m¨¢quinas llegan a un punto en que superan a sus programadores, los humanos. Son capaces de mejorarse a s¨ª mismas. De desarrollar grandes habilidades de programaci¨®n, estrat¨¦gicas, de manipulaci¨®n social, de hacking. Pueden querer tomar el control del planeta. Los humanos pueden ser un estorbo para sus objetivos. Para tomar el control, esconden sus cartas. Podr¨¢n mostrarse inicialmente d¨®ciles. En el momento en que desarrollan todos sus poderes, pueden lanzar un ataque contra la especie humana. Hackear drones, armas. Liberar robots del tama?o de un mosquito elaborados en nanofactor¨ªas que producen gas nervioso, o gas mostaza.
Esta es simplemente la s¨ªntesis del desarrollo de un escenario. Pero, como dec¨ªa la cr¨ªtica de Superinteligencia de la revista The Economist, las implicaciones de la introducci¨®n de una segunda especie inteligente en la Tierra merecen que alguien piense en ellas. ¡°Antes, muchas de estas cuestiones, no solo las del AI, sol¨ªan estar en el campo de la ciencia ficci¨®n, de la especulaci¨®n¡±, dice Bostrom, ¡°para mucha gente era dif¨ªcil de entender que se pudiera hacer trabajo acad¨¦mico con ello, que se pod¨ªan hacer progresos intelectuales¡±.
El libro tambi¨¦n plantea un escenario en que la Inteligencia Artificial se desarrolla en distintos sectores de manera paralela y genera una econom¨ªa que produce inimaginables cotas de riqueza, descubrimientos tecnol¨®gicos asombrosos. Los robots, que no duermen, ni reclaman vacaciones, producen sin cesar y desbancan a los humanos en m¨²ltiples trabajos.
¡ª ?Los robots nos enriquecer¨¢n o nos reemplazar¨¢n?
¡ª Primero, tal vez nos enriquezcan. A largo plazo ya se ver¨¢. El trabajo es costoso y no es algo deseado, por eso hay que pagar a la gente por hacerlo. Automatizarlo parece beneficioso. Eso crea dos retos: si la gente pierde sus salarios, ?c¨®mo se mantiene? Lo cual se convierte en una cuesti¨®n pol¨ªtica, ?se piensa en una garant¨ªa de renta b¨¢sica? ?En un Estado del Bienestar? Si esta tecnolog¨ªa realmente hace que el mundo se convierta en un lugar mucho m¨¢s rico, con un crecimiento m¨¢s r¨¢pido, el problema deber¨ªa ser f¨¢cil de resolver, habr¨ªa m¨¢s dinero. El otro reto es que mucha gente ve su trabajo como algo necesario para tener estatus social y que su vida tenga sentido. Hoy en d¨ªa, estar desempleado no es malo solo porque no tienes dinero, sino porque mucha gente se siente in¨²til. Se necesitar¨ªa cambiar la cultura para que no pensemos que trabajar por dinero es algo que te da valor. Es posible, hay ejemplos hist¨®ricos: los arist¨®cratas no trabajaban para vivir, incluso pensaban que tener que hacerlo era degradante. Creemos que las estructuras de significado social son universales, pero son recientes. La vida de los ni?os parece tener mucho sentido incluso si no hacen nada ¨²til. Soy optimista: la cultura se puede cambiar.
A Bostrom se le ha acusado desde algunos sectores de la comunidad cient¨ªfica de tener visiones demasiado radicales. Sobre todo, en su etapa transhumanista. ¡°Sus visiones sobre la edici¨®n gen¨¦tica o sobre la mejora del humano son controvertidas¡±, se?ala Miquel-?ngel Serra, bi¨®logo que acaba de publicar junto a Albert Cortina Humanidad: desaf¨ªos ¨¦ticos de las tecnolog¨ªas emergentes. ¡°Somos muchos los esc¨¦pticos con las propuestas que hace¡±. Serra, no obstante, deja claro que Bostrom est¨¢ ahora en el centro del debate sobre el futuro de la Inteligencia Artificial, que es una referencia.
¡ª ?Proyecta usted una visi¨®n demasiado apocal¨ªptica en su libro de lo que puede ocurrir con la humanidad?
¡ª Mucha gente puede quedarse con la impresi¨®n de que soy m¨¢s pesimista con la AI de lo que realmente soy. Cuando lo escrib¨ª parec¨ªa m¨¢s urgente tratar de ver qu¨¦ pod¨ªa ir mal para asegurarnos de c¨®mo evitarlo.
¡ª Pero, ?es usted optimista con respecto al futuro?
¡ª Intento no ser pesimista ni optimista. Intento ajustar mis creencias a lo que apunta la evidencia; con nuestros conocimientos actuales, creo que el resultado final puede ser muy bueno o muy malo. Aunque tal vez podr¨ªamos desplazar la probabilidad hacia un buen final si trabajamos duramente en ello.
¡ª O sea, que hay cosas que hacer. ?Cu¨¢les?
¡ª Estamos haciendo todo lo posible para crear este campo de investigaci¨®n de control problema. Hay que mantener y cultivar buenas relaciones con la industria y los desarrolladores de Inteligencia Artificial. Aparte, hay muchas cosas que no van bien en este mundo: gente que se muere de hambre, gente a la que le pica un mosquito y contrae la malaria, gente que decae por el envejecimiento, desigualdades, injusticias, pobreza, y muchas son evitables. En general, creo que hay una carrera entre nuestra habilidad para hacer cosas, para hacer progresar r¨¢pidamente nuestra capacidades tecnol¨®gicas, y nuestra sabidur¨ªa, que va mucho m¨¢s despacio. Necesitamos un cierto nivel de sabidur¨ªa y de colaboraci¨®n para el momento en que alcancemos determinados hitos tecnol¨®gicos, para sobrevivir a esas transiciones.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.