La histeria digital
Quienes anuncian los posibles problemas futuros de la inteligencia artificial, coqueteando a veces con la idea del fin del mundo, parecen menos interesados por sus problemas reales en el presente
El r¨¢pido desarrollo de la inteligencia artificial tambi¨¦n ha causado gran inquietud entre los representantes de la inteligencia natural. En los ¨²ltimos meses parece haberse convertido en una tendencia que quienes tienen m¨¢s responsabilidad nos est¨¦n advirtiendo contra ella. A la petici¨®n de una moratoria ha seguido la exhortaci¨®n de algunos expertos acerca de unos riesgos que equiparan a la guerra nuclear y las pandemias, las declaraciones de Geoffrey Hinton tras abandonar Google en las que preven¨ªa de una inmediata superaci¨®n sobre nuestra inteligencia y, tambi¨¦n, la comparecencia en el Senado de Estados Unidos de Sam Altman, director de OpenAI, creadora del ChatGPT, con su posterior gira europea reclamando una mayor regulaci¨®n de la inteligencia artificial. No sabe uno si interpretar estas manifestaciones como arrepentimiento o exhibici¨®n de poder¨ªo, como operaci¨®n de mercadotecnia o estrategia para protegerse de futuras reclamaciones legales. En cualquier caso, todos ellos desarrollan una narrativa que sit¨²a a la inteligencia artificial en el terreno de lo m¨¢gico m¨¢s que en el espacio de la responsabilidad.
El efecto imprevisible de estas nuevas tecnolog¨ªas se compara con una guerra nuclear y una pandemia, mientras se anuncia una previsible extinci¨®n del g¨¦nero humano. El anuncio de tales peligros recuerda a otros miedos previos en nuestra historia reciente, como los que surgieron en los inicios de la revoluci¨®n industrial, el escepticismo frente a las primeras vacunas o el rechazo de la electrificaci¨®n. Ninguna de las disrupciones provocadas por estas tecnolog¨ªas ha acabado con el g¨¦nero humano, por cierto. M¨¢s bien han proporcionado grandes avances, en algunos casos acompa?ados de nuevas crisis y conflictos. Comparar los riesgos de las tecnolog¨ªas digitales con los nucleares es muy poco apropiado. Con todo su potencial terror¨ªfico, las armas nucleares eran relativamente f¨¢ciles de controlar; por un lado, debido a que son costosas de fabricar y, por otro, a que est¨¢n localizadas en un lugar, de manera que basta con asegurar el acceso a ellas. La tecnolog¨ªa digital e internet son todo lo contrario: un sistema distribuido, virtual y accesible, es decir, algo por principio imposible de asegurar. Por otro lado, la comparaci¨®n con las pandemias tiene el efecto de presentar los peligros de la inteligencia artificial como si surgieran espont¨¢neamente, como la mutaci¨®n de un virus. Aqu¨ª desaparece nuevamente cualquier responsabilidad que pudi¨¦ramos identificar como el resultado de las decisiones conscientes de sus desarrolladores. ?A qui¨¦n se dirigen las advertencias sobre los riesgos asociados a las decisiones que han tomado precisamente quienes las lanzan? Escuchar a algunos gur¨²s de la inteligencia artificial reclamando que los pol¨ªticos regulen es como si unos ladrones (perd¨®n por la met¨¢fora) recriminaran al due?o de la casa por no haber cerrado bien las puertas.
Despu¨¦s de haber disfrutado de la libertad de la ausencia de reglas, los tecn¨®logos de Silicon Valley acaban de descubrir el alivio populista de descargar toda la responsabilidad en los pol¨ªticos. La ¨¦lite de la inteligencia artificial podr¨¢ decir en el futuro, cuando pase algo, que ya advirtieron de los peligros, cuya responsabilidad no corresponder¨ªa a quienes los originaron, sino a quienes no nos protegieron lo suficiente frente a ellos. Esa falta de responsabilidad pol¨ªtica de los expertos en tecnolog¨ªa suele venir acompa?ada por una cierta frivolidad a la hora de emitir mensajes sobre probables futuros. A los dem¨¢s nos cabe la esperanza de que si se equivocaron a la hora de hacerse cargo de los riesgos que estaban provocando, tambi¨¦n fallen en sus previsiones acerca de lo que puede suceder. Podr¨ªamos hacer una lista de sus predicciones incumplidas, as¨ª como de sus empresas fallidas y preguntarnos despu¨¦s cu¨¢l es la raz¨®n para que debamos creerles ahora. La incapacidad de algunos expertos para valorar correctamente la tecnolog¨ªa que supuestamente conocen es uno de los motivos por los que conviene ponderar con otros criterios lo que hacen y dudar un poco m¨¢s de lo que dicen.
Con esto no excluyo que haya que tomarse en serio sus advertencias, aunque no sean completamente desinteresadas. Es posible incluso que algunas sean veros¨ªmiles, pero no exactamente por las razones que aducen. La menos cre¨ªble es la que pronostica una superinteligencia que nos convertir¨¢ en d¨®ciles subordinados. No hace falta que la inteligencia artificial nos supere (lo que es una afirmaci¨®n que carece de fundamento epistemol¨®gico y forma parte m¨¢s bien de la ciencia ficci¨®n) para saber que, adem¨¢s de enormes beneficios, va a crearnos graves problemas. Los sistemas de inteligencia artificial pueden producir da?os sin necesidad de ser superinteligentes, m¨¢s bien precisamente porque no lo son. Tenemos otros t¨¦rminos para designar a quien, un humano o una m¨¢quina, hace da?o y es muy listo: puede ser sagaz, astuto, exacto, h¨¢bil, pero no ser¨¢ socialmente inteligente.
De lo que podemos estar seguros es de que no acertaremos a hacer lo debido sin entender bien qu¨¦ es lo que realmente est¨¢ en juego. Si no podemos especificar lo que hay que regular hay pocas posibilidades de regularlo. Una buena prueba de este desconcierto es que la pregunta por la tecnolog¨ªa se resuelve con frecuencia en t¨¦rminos de optimismo o pesimismo. Si tuvi¨¦ramos un mejor conocimiento de las cosas y de su posible evoluci¨®n, ya no tendr¨ªa sentido dividirnos entre optimistas y pesimistas. Pese a toda la carga de incertidumbre que rodea a estas tecnolog¨ªas, nuestros an¨¢lisis y previsiones tendr¨ªan una mayor objetividad. La necesidad de apostar a un impreciso estado de ¨¢nimo en relaci¨®n con lo que pueda pasar disminuye en la misma medida en que hacemos mejores an¨¢lisis acerca del futuro posible.
Esta falta de buenos an¨¢lisis acerca del complejo entramado social en el que se inserta la tecnolog¨ªa (con dimensiones antropol¨®gicas, sociales, medioambientales, legales, ¨¦ticas y pol¨ªticas) es lo m¨¢s preocupante de la actual situaci¨®n. Parafraseando lo que Lichtenberg dec¨ªa de la qu¨ªmica, podr¨ªamos afirmar que quien solo sabe de tecnolog¨ªa ni siquiera sabe de tecnolog¨ªa. Tal vez eso sea lo que explica el tono hist¨¦rico de sus llamamientos a hacer algo, incapaces de recurrir a otra cosa que no sea un futuro espantoso. A los anunciadores de los posibles problemas del futuro parecen interesarles menos los reales problemas del presente, de los que se ocupa precisamente la Uni¨®n Europea en su paciente regulaci¨®n: la opacidad, los riesgos, los derechos, para los que prefiere un tono desacomplejadamente burocr¨¢tico que el trompeteo ¨¦pico.
Tenemos que debatir intensamente acerca de qu¨¦ hacer con la que probablemente es la tecnolog¨ªa m¨¢s poderosa de todos los tiempos, para lo cual no es un buen comienzo coquetear con la idea del fin del mundo. Prestemos atenci¨®n a otros finales, buenos y malos, de cosas concretas (en el trabajo, la comunicaci¨®n, el poder, la democracia¡), de los que nos distraen los escenarios apocal¨ªpticos.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.