Los cinco jinetes del apocalipsis
El investigador Anders Sandberg analiza los mayores riesgos para el ser humano
La gente lleva miles de a?os hablando de los apocalipsis, pero pocos han intentado prevenirlos, y es que a los humanos no se nos da bien atajar los problemas que a¨²n no han sucedido. El motivo, entre otras cosas, es la heur¨ªstica de la disponibilidad: la tendencia a magnificar la probabilidad de que ocurran acontecimientos de los que conocemos ejemplos, e infravalorar los acontecimientos que no podemos recordar f¨¢cilmente.
Sumidos en el barullo cotidiano de las ¡°crisis¡± a las que se enfrenta la humanidad, nos olvidamos de las muchas generaciones que, confiemos, est¨¢n por venir. No en las que vivir¨¢n dentro de 200 a?os, sino en 1.000 o 10.000 a?os. Nos enfrentamos a riesgos, llamados existenciales, que amenazan con barrer del mapa a la humanidad. No se trata solo de los riesgos de grandes desastres, sino de desastres que podr¨ªan acabar con la historia.
La actividad humana moldea continuamente el futuro de nuestro planeta y, aunque a¨²n estemos lejos de poder controlar los desastres naturales, estamos desarrollando una tecnolog¨ªa que podr¨ªa ayudarnos a mitigarlos o, cuando menos, capearlos. No obstante, seguimos sin estudiar esos riesgos como se deber¨ªa; existe una sensaci¨®n de impotencia y fatalismo ante ellos. Con eso en mente, he seleccionado las que, en mi opini¨®n, son las cinco mayores amenazas para la humanidad. Conviene, eso s¨ª, ir sobre aviso: no se trata de una lista definitiva. Debemos esperar la aparici¨®n de otras. Asimismo, algunos riesgos que hoy en d¨ªa parecen serios podr¨ªan desaparecer a medida que aumente nuestro conocimiento. Las probabilidades tambi¨¦n cambian con el paso del tiempo; a veces, los riesgos nos preocupan y les ponemos remedio.
Por ¨²ltimo, que algo sea posible y peligroso en potencia no significa que merezca la pena preocuparse por ello. Hay riesgos contra los que no podemos hacer absolutamente nada, como los estallidos de rayos gamma producidos por la explosi¨®n de una galaxia. Pero cuando aprendemos que podemos hacer algo al respecto, las prioridades cambian. Gracias a las instalaciones sanitarias, las vacunas y los antibi¨®ticos, por ejemplo, la peste pas¨® de ser un castigo divino a un problema de sanidad p¨²blica.
Nos enfrentamos a riesgos, llamados existenciales, que amenazan con barrer del mapa a la humanidad.
1. Guerra nuclear
Aunque solo se han usado dos armas nucleares hasta la fecha ¡ªlas de Hiroshima y Nagasaki en la Segunda Guerra Mundial¡ª y los arsenales nucleares est¨¢n lejos del c¨¦nit que alcanzaron durante la Guerra Fr¨ªa, es un error pensar que es imposible que se produzca una guerra nuclear. De hecho, no es improbable.
La crisis de los misiles en Cuba estuvo a punto de alcanzar un nivel nuclear. Suponiendo que se produzca un acontecimiento as¨ª cada 69 a?os, y que hay un tercio de posibilidades de que escale hasta convertirse en una guerra nuclear, la probabilidad de una cat¨¢strofe as¨ª aumenta hasta aproximadamente una de cada 200 al a?o.
Para m¨¢s inri, la crisis de los misiles en Cuba solo fue el caso m¨¢s conocido. La historia de la disuasi¨®n nuclear entre la Uni¨®n Sovi¨¦tica y Estados Unidos est¨¢ repleta de soluciones por los pelos y errores peligrosos. La probabilidad actual cambia dependiendo de las tensiones internacionales, pero parece inveros¨ªmil que la posibilidad sea mucho menor a una entre 1.000 al a?o.
El riesgo de que alguien ponga en circulaci¨®n algo devastador es bajo, pero a medida que la biotecnolog¨ªa se vuelva m¨¢s barata, m¨¢s personas tendr¨¢n la capacidad de crear enfermedades m¨¢s nocivas?
Una guerra nuclear a gran escala entre las principales potencias matar¨ªa a centenares de millones de personas directamente o a trav¨¦s de sus secuelas: un desastre inimaginable. Sin embargo, no es suficiente para convertirla en un riesgo existencial.
De la misma manera, los riesgos de la lluvia radioactiva suelen exagerarse: a escala local pueden ser mort¨ªferos, pero a escala mundial se trata de un problema relativamente limitado. Aunque se habl¨® de las bombas de cobalto como una hipot¨¦tica arma apocal¨ªptica cuya lluvia radioactiva matar¨ªa a todo el mundo, en la pr¨¢ctica son dif¨ªciles y caras de construir. Y las posibilidades f¨ªsicas de fabricarlas tambi¨¦n son muy reducidas.
La aut¨¦ntica amenaza es el invierno nuclear, es decir, que el holl¨ªn lanzado a la estratosfera provoque un enfriamiento y una sequ¨ªa mundial que se alarguen varios a?os. Las simulaciones clim¨¢ticas modernas muestran que podr¨ªa condenar la agricultura de buena parte del planeta durante a?os.
2. Pandemia provocada por la bioingenier¨ªa
Las pandemias naturales han matado a m¨¢s personas que las guerras. Sin embargo, no re¨²nen las condiciones para suponer amenazas existenciales: suele haber personas inmunes al pat¨®geno, y los v¨¢stagos de los supervivientes ser¨ªan a¨²n m¨¢s resistentes. La evoluci¨®n tampoco favorece a los par¨¢sitos que se cargan a sus hu¨¦spedes, que es la raz¨®n por la que la s¨ªfilis dej¨® de ser una asesina virulenta y se convirti¨® en una enfermedad cr¨®nica a medida que se extend¨ªa por Europa.
Por desgracia, ahora somos capaces de empeorar las enfermedades. En estos momentos, el riesgo de que alguien ponga en circulaci¨®n deliberadamente algo devastador es bajo, pero a medida que la biotecnolog¨ªa se vuelva m¨¢s sofisticada y barata, un mayor n¨²mero de personas tendr¨¢n la capacidad de hacer m¨¢s nocivas las enfermedades.
El n¨²mero de v¨ªctimas de las armas biol¨®gicas y los brotes epid¨¦micos parece tener una distribuci¨®n de ley de potencias: la mayor¨ªa de los ataques causan pocas v¨ªctimas, y unos pocos matan a muchos. Habida cuenta de las cifras actuales, el riesgo de una pandemia mundial por bioterrorismo parece ¨ªnfimo. Pero solo estamos hablando de bioterrorismo: los Gobiernos han matado a mucha m¨¢s gente que los terroristas con armas qu¨ªmicas (el programa de guerra biol¨®gica japon¨¦s de la Segunda Guerra Mundial se cobr¨® unas 400.000 vidas). Y en el futuro, cuanto m¨¢s potente sea la tecnolog¨ªa, m¨¢s f¨¢cil ser¨¢ dise?ar pat¨®genos m¨¢s da?inos.
3. Superinteligencia
La inteligencia es muy poderosa. Un min¨²sculo aumento en la capacidad de resolver problemas y la coordinaci¨®n en grupo nos bast¨® para dejar al resto de simios en la estacada. Ahora su supervivencia depende de las decisiones humanas, no de sus actos. La inteligencia es una aut¨¦ntica ventaja para personas y organizaciones, por lo que se invierte un esfuerzo enorme en idear formas de mejorar nuestra inteligencia individual y colectiva: desde los f¨¢rmacos que potencian el conocimiento hasta los programas de inteligencia artificial.
No hay motivos para pensar que la inteligencia por s¨ª misma haga que algo se comporte con bondad y ¨¦tica. De hecho, se puede demostrar que determinados tipos de sistemas superinteligentes no obedecer¨ªan las leyes ¨¦ticas aun cuando fuesen correctas.
Lo que resulta m¨¢s preocupante todav¨ªa es que al intentar explicar algo a una inteligencia artificial tropezamos con profundos problemas pr¨¢cticos y filos¨®ficos. Los valores humanos son elementos difusos y complejos, que no se nos da bien expresar; adem¨¢s, aunque seamos capaces de hacerlo, puede que no entendamos todas sus consecuencias.
La inteligencia inform¨¢tica podr¨ªa pasar rapid¨ªsimamente de estar por debajo de la humana a tener un poder terror¨ªfico. Se ha insinuado que podr¨ªa producirse una ¡°explosi¨®n de la inteligencia¡± cuando los programas se vuelvan lo bastante sofisticados como para dise?ar mejores programas. Si se produjera un salto semejante, habr¨ªa una gran diferencia de poder potencial entre el sistema inteligente (o las personas que le dicen c¨®mo actuar) y el resto del mundo. Est¨¢ claro el potencial para el desastre si los objetivos establecidos no son los id¨®neos.
Hay motivos de sobra para pensar que algunos tipos de tecnolog¨ªa podr¨ªan hacer que las cosas se acelerasen a una velocidad mayor de la que la sociedad actual es capaz de asimilar. Es m¨¢s, tampoco tenemos claro lo peligrosos que podr¨ªan ser los diferentes tipos de superinteligencia, o qu¨¦ estrategias de mitigaci¨®n funcionar¨ªan. Resulta muy dif¨ªcil teorizar sobre una tecnolog¨ªa futura de la que a¨²n no disponemos, o sobre una inteligencia mayor que la nuestra. De los riesgos de esta lista, este es el que m¨¢s probabilidades tiene de ser, o bien catastr¨®fico, o bien un mero espejismo.
Sorprendentemente, este es un ¨¢mbito muy poco investigado. Ya en las d¨¦cadas de 1950 y 1960, cuando la gente estaba convencida de que la superinteligencia pod¨ªa alcanzarse ¡°en una generaci¨®n¡±, no se prestaba demasiada atenci¨®n a las cuestiones de seguridad.
4. Nanotecnolog¨ªa
La nanotecnolog¨ªa es el control de la materia con una precisi¨®n at¨®mica o molecular. Eso no es peligroso de por s¨ª; de hecho, ser¨ªa una fant¨¢stica noticia para la mayor¨ªa de sus aplicaciones. Pero el aumento del poder tambi¨¦n aumenta el potencial de abusos contra los que resultar¨ªa dif¨ªcil defenderse.
El mayor problema no es la c¨¦lebre ¡°plaga gris¡± de nanom¨¢quinas que se autorreplicasen hasta devorarlo todo. Para eso har¨ªa falta un dise?o inteligente ex profeso. Resulta dif¨ªcil hacer que una m¨¢quina se replique; a la biolog¨ªa se le da mucho mejor, lo hace por naturaleza. El riesgo m¨¢s evidente es que la fabricaci¨®n con un nivel at¨®mico de precisi¨®n parece venir como anillo al dedo para la producci¨®n r¨¢pida y barata de cosas como armas. En un mundo donde cualquier gobierno pudiese ¡°imprimir¡± una gran cantidad de armas aut¨®nomas o semiaut¨®nomas (incluidas las instalaciones para crear a¨²n m¨¢s), las carreras armament¨ªsticas adquirir¨ªan m¨¢s velocidad de la cuenta, y por ende se volver¨ªan inestables.
Las armas tambi¨¦n pueden ser elementos min¨²sculos y certeros: un ¡°veneno inteligente¡± que act¨²a como un gas nervioso pero que busca a sus v¨ªctimas, o un sistema de vigilancia ubicuo a trav¨¦s de ¡°robots mosquito¡±, parecen perfectamente plausibles. Asimismo, podr¨ªa llegarse a una situaci¨®n en que la proliferaci¨®n nuclear o la ingenier¨ªa clim¨¢tica estuviesen al alcance de cualquiera.
No podemos juzgar las probabilidades de un riesgo existencial en la nanotecnolog¨ªa del futuro, pero podr¨ªa resultar posiblemente perturbadora por el mero hecho de ser capaz de darnos todo lo que deseemos.
5. Riesgos desconocidos que a¨²n no conocemos
La posibilidad m¨¢s inquietante es que exista algo tremendamente mort¨ªfero de lo que no tenemos ni idea. F¨ªjense en que el desconocer algo no es ¨®bice para que no podamos razonar sobre ello. En un art¨ªculo extraordinario, Max Tegmark y Nick Bostrom demuestran que existe una serie de riesgos, con menos de una posibilidad entre 1.000 millones al a?o, basada en la edad relativa de la Tierra.
Uno podr¨ªa preguntarse por qu¨¦ el cambio clim¨¢tico o los impactos de meteorito se han quedado fuera de esta lista. Es poco probable que el cambio clim¨¢tico, por aterrador que sea, haga inhabitable todo el planeta (aunque podr¨ªa conllevar otras amenazas si nuestras defensas ante ¨¦l se desmoronan). Sin duda los meteoritos podr¨ªan borrarnos del mapa, pero ya ser¨ªa mala suerte. Una especie de mam¨ªfero media sobrevive aproximadamente un mill¨®n de a?os. As¨ª pues, la tasa de extinci¨®n natural ronda el uno entre un mill¨®n al a?o. Una cifra mucho m¨¢s baja que el riesgo de guerra nuclear, que, pasados 70 a?os, sigue siendo la mayor amenaza para nuestra existencia.
Anders Sandberg es investigador asociado con la beca James Martin de la Universidad de Oxford y trabaja para el Instituto para el Futuro de la Humanidad.
Versi¨®n ampliada por el autor de un art¨ªculo originalmente publicado en The conversation.
Traducci¨®n de News Clips.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.