Nick Bostrom: ¡°No tendremos una segunda oportunidad con la inteligencia artificial¡±
El fil¨®sofo y profesor de la Universidad de Oxford alerta de los riesgos que plantea la tecnolog¨ªa y advierte de la necesidad de anticiparnos antes de que sea tarde
Nick Bostrom (Helsingborg, Suecia, 1973) es una de las voces m¨¢s autorizadas para hablar de los peligros de los avances tecnol¨®gicos en nuestro tiempo. Este fil¨®sofo dirige el Instituto para el Futuro de la Humanidad y el Centro de Investigaci¨®n de Estrategia de Inteligencia Artificial de la Universidad de Oxford, donde ejerce como profesor. Sus teor¨ªas sobre el riesgo que representar¨ªa la creaci¨®n de una superinteligencia para el mundo han influido en el pensamiento de figuras como Bill Gates o Elon Musk.
Nos recibe en un peque?o camerino de la Fundaci¨®n Giner de los R¨ªos, a unos pasos del escenario donde acaba de impartir una ponencia en el marco de un evento organizado por Adigital sobre c¨®mo debemos afrontar la transici¨®n hacia la era de las m¨¢quinas inteligentes. Tiene que coger un vuelo en un par de horas y antes debe pasar por el hotel, pero se toma su tiempo antes de responder a cada pregunta y detiene su discurso varias veces para buscar las palabras precisas. Es evidente que se encuentra c¨®modo especulando sobre el futuro que nos espera.
- P. ?Cu¨¢les son los principales riesgos tecnol¨®gicos con los que debe lidiar la humanidad?
- R. Depende del contexto temporal que tengamos en mente. Si estamos pensando en las aplicaciones actuales, deber¨ªamos estar preocupados por una serie de cosas que no tienen nada que ver con los peligros que vemos si miramos hacia el futuro, donde las m¨¢quinas tendr¨¢n niveles de inteligencia muy superiores a los de los humanos.
Hoy, uno de nuestros principales focos de atenci¨®n apunta a que nuestros sistemas de informaci¨®n sean transparentes y a la vez nos permitan ciertos niveles de privacidad. Es muy importante que configuremos correctamente nuestra arquitectura informativa. Ahora nos interesa pensar en la forma en que se establecen las relaciones sociales en internet, la creaci¨®n de filtros burbuja¡
- P. ?Y si echamos la vista al futuro?
- R. Nos encontramos con un tipo de preocupaciones completamente distintas. No es dif¨ªcil pensar en una inteligencia artificial que sea cada vez m¨¢s poderosa cuyos objetivos no est¨¦n perfectamente alineados con los objetivos humanos. Y el reto aqu¨ª consiste en tener la tecnolog¨ªa que nos haga capaces de dise?ar estos poderosos sistemas artificiales alineados con los valores humanos y que siempre hagan lo que nosotros queremos que hagan.
- P. ?Es la inteligencia artificial nuestra ¨²nica preocupaci¨®n a largo plazo?
- R. Existen otras ¨¢reas que tambi¨¦n tienen un gran potencial riesgo para la humanidad. La biotecnolog¨ªa ser¨ªa una de ellas. Si descubrimos c¨®mo hacer mejores herramientas para manipular virus, bacterias y otros microrganismos, har¨ªamos posible la creaci¨®n de pat¨®genos de dise?o, que podr¨ªa utilizar alg¨²n grupo terrorista para crear un nuevo tipo de enfermedad. Con cada nuevo avance t¨¦cnico nos vamos aproximando a estos escenarios y, a medida que la tecnolog¨ªa madura, crece su potencial destructivo.
- P. ?Considera que estamos avanzando demasiado r¨¢pido como sociedad?
- R. Creo que cada vez que realizamos un gran descubrimiento, estamos metiendo la mano en una urna llena de pelotas y sacando una. Con cada pelota que sacamos, vamos alcanzando el progreso social. Toda la historia de la humanidad se ha basado en el proceso de hacer estos inventos.
La cuesti¨®n es que muchas de estas pelotas son beneficiosas, pero hay otras que pueden ser perjudiciales. Imagina lo que pasar¨ªa si una de las pelotas que sacamos es una tecnolog¨ªa que significa invariablemente la destrucci¨®n de la civilizaci¨®n que la descubri¨®. El problema aqu¨ª es que todav¨ªa no hemos descubierto una manera de volver a meter la pelota en la urna si no nos gusta: una vez que se ha inventado una tecnolog¨ªa, no puede ¡°desinventarse¡±.
- P. ?Hemos sacado ya alguna de esas pelotas?
- R. No es dif¨ªcil adivinar c¨®mo ser¨ªa. Piensa, por ejemplo, en lo que pasar¨ªa si el desarrollo de armas nucleares hubiera sido posible con materiales m¨¢s f¨¢ciles de conseguir. Si en lugar de plutonio o uranio enriquecido, que no son precisamente accesibles, pudiera crearse una bomba at¨®mica con un poco de arena, ser¨ªa el fin de la civilizaci¨®n, porque bastar¨ªan unas pocas personas que quisieran causar da?o para posibilitar una gran destrucci¨®n.
- P. ?Podemos evitar que la inteligencia artificial termine siendo una de estas tecnolog¨ªas?
- R. Si la inteligencia artificial termina siendo capaz de hacer todo o buena parte de nuestro trabajo intelectual mejor que nosotros, tendremos en nuestras manos el ¨²ltimo invento que tendr¨¢ que realizar la humanidad.
El problema est¨¢ en la transici¨®n hasta la era de la inteligencia artificial: tenemos que hacerlo bien a la primera porque no creo que tengamos una segunda oportunidad. Si desarrollamos una inteligencia artificial que no est¨¦ alineada con nuestros prop¨®sitos, no creo que podamos volver a meter esa pelota en la urna y empezar de cero. No somos demasiado buenos como civilizaci¨®n anticipando problemas dif¨ªciles que todav¨ªa no nos han causado ning¨²n da?o. Debemos movilizar nuestros esfuerzos para hacer que esto funcione desde el principio. Esta es la gran dificultad para nuestra civilizaci¨®n.
- P. ?Qu¨¦ tipo de pol¨ªticas deben tomar los gobiernos y compa?¨ªas tecnol¨®gicas al respecto?
- R. Se nos presenta la oportunidad de acercarnos a la revoluci¨®n de la inteligencia artificial de forma coordinada. Es el momento de trabajar en un proyecto internacional para desarrollar una superinteligencia segura en el que est¨¦n implicados todos los actores que puedan aportar algo. Si esto sale bien, los beneficios para la sociedad ser¨ªan inmensos, pero podr¨ªamos sufrir consecuencias muy negativas si nuestra forma de abordar el problema consistiera en permitir que las empresas y naciones compitieran para ver quien consigue mejores resultados.
- P. ?Cu¨¢l es la mejor manera de minimizar los riesgos de la IA?
- R. Fundamentalmente, destinando recursos para desarrollar m¨¦todos de control que sean escalables, es decir, que sean m¨¢s eficientes incluso si la IA se vuelve m¨¢s inteligente. Por otra parte, deber¨ªamos aprovechar el estado actual de esta tecnolog¨ªa para alinearla con valores humanos. Hasta hace poco era un tema muy descuidado, pero cada vez hay m¨¢s grupos de investigaci¨®n trabajando en esta l¨ªnea.
- P. ?Estamos preparados para introducir valores humanos en una m¨¢quina?
- R. Tenemos que definir los objetivos que queremos incorporar al sistema de IA para que interpreten estos valores como nos gustar¨ªa que fueran interpretados, y la manera de hacerlo es con el aprendizaje autom¨¢tico. No podemos especificar en un lenguaje inform¨¢tico lo que entendemos por justicia, placer o amor porque son conceptos muy complejos. En cambio, si programamos al sistema para que aprenda, podr¨¢ mejorar su comprensi¨®n de lo que quieren decir nuestras palabras en un sentido m¨¢s profundo.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.