Inteligencia artificial: d¨®nde est¨¢ Bruce Willis cuando se le necesita
En lugar de resolver los problemas existenciales de la inteligencia artificial de manera l¨®gica, desconectarla de internet o prohibirla operar, EE UU y la UE reaccionan con una salida ¡°voluntaria¡±
En todos los a?os que llevo en el mundo jur¨ªdico no hab¨ªa visto a nadie usar el argumento de ¡°estoy muy loco, paradme¡± para evitar la regulaci¨®n. ¡°Mitigar el riesgo de extinci¨®n de la IA deber¨ªa ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear¡±, firman y afirman Demis Hassabis, CEO de Google DeepMind, o Sam Altman, CEO de OpenAI - de bolos por Europa- entre una larga lista de gestores y cient¨ªficos expertos en IA en una declaraci¨®n publicada en el web del Center for AI Safety, organizaci¨®n sin ¨¢nimo de lucro de la que no es posible saber por su web cu¨¢ndo se constituy¨® ni quien paga las facturas.
Leo esto y solo puedo pensar, pues apagadla y dejadnos seguir con nuestra vida de elecci¨®n en elecci¨®n, que bastante tenemos con nuestros riesgos existenciales cotidianos como para lidiar con el fin del mundo a manos de Skynet. Si aplicamos el estado de alarma a los controladores a¨¦reos para irnos de vacaciones, no s¨¦ qu¨¦ hace Biden que no manda a la Guardia Nacional a la sede de OpenIA a apagar los servidores. Si estuviera Bruce Willis al mando habr¨ªa acabado con tanta tonter¨ªa ya, pero parece que solo tenemos bur¨®cratas na?fs v¨ªctimas del tocomocho.
Apliquemos la l¨®gica de los colapsos inminentes. En el caso de la amenaza nuclear, el riesgo se mitiga con el equilibrio de fuerzas, con el principio de destrucci¨®n mutua asegurada. Me gustan principios as¨ª, basados en el profundo conocimiento de la naturaleza humana, de esos que interpelan a la am¨ªgdala y funcionan bien en caso de conflicto. El riesgo de pandemia, como hemos experimentado en nuestras carnes, es multifactorial en sus causas y en sus responsables, por lo que es dif¨ªcil de mitigar. As¨ª que como no somos capaces de poner medidas efectivas para limitar su ocurrencia (aunque las haya) lo que hacemos es reaccionar desarrollando nuevas vacunas que, si funcionan adecuadamente, mitigar¨¢n el riesgo de que una pandemia vuelva a suceder.
Con sus defectos, estos sistemas de mitigaci¨®n de riesgos parecen racionales, basado en la experiencia y la ciencia. Pero cuando llegamos a c¨®mo resolver los problemas existenciales de una IA asesina en lugar de hacer lo l¨®gico, apagarla o desconectarla de internet, prohibirla operar o tirarla a la basura, nuestra reacci¨®n es hacerle una auditor¨ªa, eso s¨ª voluntaria, no se vaya a enfurecer HAL antes de tiempo y nos lance una lluvia de fuego y ranas asesinas que nos convierta en protagonistas de la vigesimocuarta serie de zombis. Reconozco que esta l¨®gica o su ausencia me supera. Y reconozco que la reconozco porque los jefes de las tecnol¨®gicas son unos trileros muy listos que nos llevan toreando desde hace unas cuantas d¨¦cadas.
Antes les bastaba con poner ¡°innovaci¨®n¡± al principio de las frases para convencer a unos gobernantes m¨¢s interesados por conquistar el campo de batalla que en los derechos de los ciudadanos. La l¨®gica de dejar crecer y luego regular est¨¢ en todas las revoluciones industriales y sociales, y, por tanto, tiene una base racional aunque se haya equivocado estrepitosamente en esta. En el an¨¢lisis de riesgos racional se ponder¨® m¨¢s el crecimiento econ¨®mico, el control de sectores claves y el posicionar a EEUU a la cabeza muy por encima de los derechos individuales. No me gusta, se han equivocado en el c¨¢lculo a largo plazo, pero responde a una metodolog¨ªa racional. Cuando pensamos en riesgos existenciales preferimos que todo el mundo se deje las emociones en casa.
Ahora que los reguladores y gobiernos no est¨¢n, con respecto a las tecnol¨®gicas, en el ciclo expansionista, sino en el regulatorio, los technomoguls saben que innovar es mucho m¨¢s complicado. Y eso es un fastidio cuando te has gastado la hijuela en una tecnolog¨ªa de crecimiento lento pero de explosi¨®n y expansi¨®n r¨¢pida. Qu¨¦ mala pata, ha debido de pensar Sam Altman, que no me ha pillado el estallido de la IA generativa al principio de los dos mil. Qu¨¦ tiempos para hacer lo que a uno le daba la gana. As¨ª que, chico listo, nos ha aplicado una descarga de doctrina del shock y se ha quedado tan ancho. Naomi Klein lo estudi¨® muy bien en su obra del mismo t¨ªtulo: si asustas lo suficiente, te dejar¨¢n hacer lo impensable. Y lo ejemplific¨® en su obra con el desastre que supuso la aplicaci¨®n del susto o muerte en el Chile de Pinochet, laboratorio de prueba de las pol¨ªticas econ¨®micas ultraliberales de Friedman y la Escuela de Chicago. Da igual cu¨¢ntas explicaciones de blog minoritario se den para explicar c¨®mo nos est¨¢n distrayendo de lo importante. El susto est¨¢ dado y Bruce ni viene ni se le espera.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.