Una pausa cuestionable en la inteligencia artificial
Frente a la visi¨®n de quienes quieren adaptar la humanidad a la tecnolog¨ªa, y no al rev¨¦s, es el momento de actuar como sociedad, definiendo colectivamente los horizontes ¨¦ticos y pol¨ªticos de la IA
La inteligencia artificial (IA) vive tiempos convulsos. En los ¨²ltimos meses, hemos sido testigos de avances sin precedentes en las t¨¦cnicas de inteligencia artificial generativa que permiten de manera muy sencilla crear, casi instant¨¢neamente, textos, m¨²sica, im¨¢genes, voz, v¨ªdeos o c¨®digo con un nivel de competencia similar o incluso superior al de los humanos. El hecho de que, por primera vez en nuestra historia, lo que leemos, vemos o escuchamos no haya sido creado por un humano plantea profundos dilemas sociales y ¨¦ticos que sin duda debemos abordar.
Hace poco m¨¢s de un mes, el Future of Life Institute public¨® una carta apoyada por miles de personas ¡ªincluyendo figuras destacadas como el historiador y fil¨®sofo Yuval Noah Harari, el experto en IA y ganador del Premio Turing Joshua Bengio o el empresario Elon Musk¡ª en la que se propone una ¡°pausa de la inteligencia artificial¡±, interrumpiendo durante al menos seis meses el desarrollo de sistemas de inteligencia artificial que sean m¨¢s poderosos que GPT-4 (la ¨²ltima versi¨®n p¨²blica de ChatGPT) y se pide el desarrollo de protocolos de seguridad rigurosos y un sistema de gobernanza de la IA s¨®lido para garantizar que los efectos de estos sistemas sean positivos y manejables.
Sin duda, es prioritario y necesario desplegar sistemas de gobernanza y regulaci¨®n que garanticen que el impacto social de la inteligencia artificial sea positivo. Sin embargo, las motivaciones de la instituci¨®n que promueve la carta, as¨ª como el foco en evitar un riesgo existencial para la humanidad debido a la IA, son altamente controvertidos y cuestionables. No es sorprendente que tras su publicaci¨®n, la carta haya suscitado tantos defensores como detractores, hasta la publicaci¨®n, unos d¨ªas despu¨¦s, de una contundente respuesta a la misma por parte de las autoras de uno de los art¨ªculos citados por la carta. ?Qu¨¦ hay detr¨¢s de este debate? ?Nos enfrentamos realmente a una amenaza existencial a causa del desarrollo de la inteligencia artificial? ?Nos encontramos en la antesala del fin de la humanidad?
Para poder entender esta carta y sus propuestas es preciso conocer las teor¨ªas del movimiento ¡ªreligi¨®n para algunos¡ª largoplacista y el llamado altruismo efectivo que han promovido su publicaci¨®n.
M¨¢s all¨¢ de la indefinici¨®n de la carta (qu¨¦ significa ¡°sistemas m¨¢s poderosos que GPT-4¡å cuando desconocemos el poder de GPT-4 al ser un sistema totalmente opaco) y de su simplificaci¨®n de la complejidad del reto (es imposible que en seis meses se desarrollen modelos de gobernanza de la IA cuando en Europa llevamos dos a?os trabajando en la regulaci¨®n europea, el AI Act), la carta omite poner el foco en los riesgos y consecuencias negativas reales del desarrollo y despliegue masivo de la inteligencia artificial en la sociedad. Por el contrario, se centra en los potenciales ¡°riesgos existenciales¡± que plantea la inteligencia artificial y que supuestamente impedir¨ªan el progreso de la humanidad. Progreso que, seg¨²n el largoplacismo, consiste en la creaci¨®n de trillones de poshumanos digitales, viviendo en una gran simulaci¨®n computacional y colonizando el espacio gracias a una omnipresente y todopoderosa inteligencia artificial amiga.
Esta visi¨®n es evidentemente controvertida y no necesariamente compartida por la sociedad en su conjunto. Tambi¨¦n es una visi¨®n peligrosa, porque justifica ignorar los grandes retos de los humanos de carne y hueso de hoy en d¨ªa, en tanto que dichos retos no representen un riesgo existencial. Justifica, por ejemplo, no invertir recursos en mitigar la desigualdad o la pobreza en el mundo de hoy si no son un riesgo existencial para el desarrollo de la poshumanidad. En el contexto de la inteligencia artificial, desv¨ªa la atenci¨®n de los retos inminentes y riesgos reales que la IA nos plantea y se centra en el riesgo que conllevar¨ªa una hipot¨¦tica inteligencia artificial sobrehumana y desbocada.
Retos como la violaci¨®n de la privacidad y el uso de cantidades masivas de datos sin consentimiento expreso y potencialmente infringiendo los derechos de propiedad intelectual de los creadores de dichos datos; la explotaci¨®n de los trabajadores que anotan, entrenan y corrigen sistemas de IA, muchos de ellos en pa¨ªses en desarrollo con sueldos ¨ªnfimos; los sesgos y la discriminaci¨®n algor¨ªtmicos que no solo perpet¨²an sino incluso exacerban estereotipos, patrones de discriminaci¨®n y sistemas de opresi¨®n; la falta de transparencia tanto en los modelos como en sus usos; la ingente huella de carbono de las grandes redes neuronales que conforman estos sistemas de IA; la manipulaci¨®n subliminal del comportamiento humano por parte de algoritmos de IA; la falta de veracidad de los sistemas de IA generativa que inventan todo tipo de contenidos (im¨¢genes, textos, audios, videos...) sin correspondencia con el mundo real; la fragilidad de estos grandes modelos que pueden equivocarse y ser enga?ados; o la concentraci¨®n de poder en las manos de un oligopolio de empresas y sus multimillonarios due?os o inversores. Todas estas cuestiones de tal importancia que deber¨ªan ser nuestra prioridad, brillan por su ausencia.
Es evidente que las peligrosas teor¨ªas largoplacistas han penetrado no solo en los c¨ªrculos de influencia del sector tecnol¨®gico, sino tambi¨¦n en instituciones gubernamentales. Teor¨ªas que propugnan la necesaria adaptaci¨®n de la humanidad a un desarrollo tecnol¨®gico decidido por un grupo privilegiado, en lugar de promover el desarrollo de tecnolog¨ªa que se adapte a las personas y sus necesidades (y no al rev¨¦s); tecnolog¨ªa que nos ayude a afrontar los inmensos retos del siglo XXI; tecnolog¨ªa, en suma, que represente un progreso, entendido el progreso como una mejora de la calidad de vida de las personas (de todas, no solo de algunas), del resto de seres vivos y de nuestro planeta.
La ¡°carrera por la inteligencia artificial¡± no es una carrera que hemos decidido y consensuado colectivamente. Los inmensos experimentos sociales que se derivan del despliegue masivo de algoritmos de inteligencia artificial en nuestras sociedades sin ning¨²n tipo de regulaci¨®n y control no forman parte de un futuro inevitable y un falso determinismo tecnol¨®gico, sino que son fruto de las decisiones de las empresas responsables de dichos sistemas ¡ªmovidas por ambiciosos intereses econ¨®micos y aspiraciones de poder¡ª y de la incapacidad de las sociedades y sus instituciones para reaccionar a tiempo y regular acordemente.
Es momento de actuar como sociedad, definiendo colectivamente los horizontes ¨¦ticos y pol¨ªticos de la IA, porque estamos hablando de ciencia y tecnolog¨ªa, pero tambi¨¦n de derechos, de econom¨ªa, de democracia, de igualdad, de inclusi¨®n, de ciudadan¨ªa, de paz y de poder.
Gandhi dijo que ¡°el poder para cuestionar es la base del progreso humano¡±. Es tiempo no solo de cuestionar, sino especialmente de encontrar respuestas para las profundas preguntas que plantea la inteligencia artificial. No hay sociedad m¨¢s vulnerable y f¨¢cilmente manipulable que una sociedad ignorante. Por ello, es tiempo de educar, de aprender y de no dejarnos caer en el sensacionalismo apocal¨ªptico. Es tiempo de ser due?os de nuestro destino, de regular la IA con inteligencia y de enfocarnos en detener las pr¨¢cticas abusivas y el da?o social causado por las empresas detr¨¢s de los avances de la inteligencia artificial, que en la ¨²ltima d¨¦cada han acumulado poder sin precedentes y han contribuido a la desigualdad social. Es tiempo de invertir en inteligencia artificial que contribuya al progreso, sin dejar a nadie atr¨¢s y sin destruir el planeta en el proceso. No dejemos que sean otros ¡ªhumanos o algoritmos¡ª los que decidan nuestro futuro.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.