Una moratoria artificial
La petici¨®n de paralizar el desarrollo de la inteligencia artificial es alarmista sobre sus capacidades actuales y poco realista, pero contribuye a que el p¨²blico sea consciente de la necesidad de un mayor debate, supervisi¨®n y regulaci¨®n
Desde los a?os 70 se han producido recurrentes oleadas de grandes expectativas y temores apocal¨ªpticos ante la evoluci¨®n de la inteligencia artificial, pero este a?o va camino de convertirse en el m¨¢s hist¨¦rico. Al estupor, entusiasmo o p¨¢nico provocados por el ChatGPT y sus fabulosas prestaciones, ha seguido una carta abierta en la que cien...
Desde los a?os 70 se han producido recurrentes oleadas de grandes expectativas y temores apocal¨ªpticos ante la evoluci¨®n de la inteligencia artificial, pero este a?o va camino de convertirse en el m¨¢s hist¨¦rico. Al estupor, entusiasmo o p¨¢nico provocados por el ChatGPT y sus fabulosas prestaciones, ha seguido una carta abierta en la que cient¨ªficos y empresarios piden una moratoria digital. Contemplando esta agitaci¨®n me ven¨ªa a la cabeza aquella Red Flag Act proclamada en Inglaterra en 1865 con el fin de evitar accidentes ante el aumento de los coches, a los que impon¨ªa una velocidad m¨¢xima de cuatro kil¨®metros por hora en el campo y seis en pueblos y ciudades. Adem¨¢s, cada uno de ellos deb¨ªa estar precedido por una persona a pie con una bandera roja para advertir a la poblaci¨®n. Hicieron falta unos cuantos a?os para que fu¨¦ramos conscientes de que el control humano de los veh¨ªculos no depend¨ªa de limitar la velocidad a los par¨¢metros del caminar.
Es evidente que cuanto m¨¢s sofisticada es una tecnolog¨ªa, mayores son sus prestaciones, pero tambi¨¦n sus riesgos. Los seres humanos exploramos ese territorio en parte desconocido mediante la reflexi¨®n, que es una forma de pausar los procesos y adelantarse a los posibles problemas antes de que se produzcan. En el contexto de los actuales progresos de la inteligencia artificial se est¨¢n haciendo presentes ciertos peligros como la discriminaci¨®n, la p¨¦rdida de control, la precariedad laboral o la desinformaci¨®n, todos ellos de tal envergadura que parecen hacer aconsejable frenar el desarrollo tecnol¨®gico todo lo que se pueda con el fin de disponer de un enfoque regulador, ponernos de acuerdo sobre los criterios ¨¦ticos y pol¨ªticos, establecer autoridades de supervisi¨®n y certificaci¨®n. Los autores de la carta abierta exigen para ello una moratoria de seis meses.
El problema fundamental de una moratoria es que, pretendiendo evitar ciertos riesgos de la inteligencia artificial, acent¨²e otros. ?Estamos tan seguros de que no mejorar los modelos de procesamiento durante un tiempo es menos arriesgado que seguir mejor¨¢ndolos? Es cierto que los actuales sistemas plantean muchos riesgos, pero tambi¨¦n es peligroso retrasar la aparici¨®n de sistemas m¨¢s inteligentes, como pide la moratoria. Uno de esos posibles efectos indeseados ser¨ªa la p¨¦rdida de transparencia. Si se decidiera tal moratoria, nadie podr¨ªa asegurar que el trabajo de formaci¨®n de tales modelos no continuara de forma encubierta. Esto supondr¨ªa el peligro de que su desarrollo, que anteriormente hab¨ªa sido en gran medida abierto y transparente, se volviera m¨¢s inaccesible y opaco.
Por otro lado, algo tan estricto como detener sectores tecnol¨®gicos din¨¢micos y competitivos plantea muchas dudas en cuanto a su viabilidad, tanto en lo referido a los Estados como en el sector privado. En la actual configuraci¨®n geoestrat¨¦gica del mundo, tan fragmentada, y donde la carrera tecnol¨®gica se ha convertido en uno de los principales escenarios de competencia, es inimaginable una regulaci¨®n vinculante y de obligado cumplimiento. Tampoco hay ning¨²n motivo para que las empresas dominantes asuman voluntariamente un freno que pudiera poner en peligro su posici¨®n. Revela mucha ingenuidad creer que todos los programadores van a cerrar sus computadoras y que los pol¨ªticos del mundo entero se sentar¨¢n durante seis meses con el objetivo de aprobar normas vinculantes para todos.
Hay a mi juicio una falta de comprensi¨®n acerca de la naturaleza de la tecnolog¨ªa, de su articulaci¨®n con los humanos y, concretamente, de las potencialidades de la inteligencia artificial en relaci¨®n con la inteligencia humana, menos amenazada esta de lo que suponen quienes temen al supremacismo digital. Por supuesto que nos encontramos con un desfase cada vez m¨¢s inquietante entre la rapidez de la tecnolog¨ªa y la lentitud de su regulaci¨®n. Los debates pol¨ªticos o la legislaci¨®n son sobre todo reactivos. Una moratoria tendr¨ªa la ventaja de que el marco regulatorio podr¨ªa adoptarse de forma proactiva antes de que la investigaci¨®n siga avanzando. Pero las cosas no funcionan as¨ª, menos a¨²n con este tipo de tecnolog¨ªas tan sofisticadas. La petici¨®n de moratoria describe un mundo ficticio porque, por un lado, considera posible la victoria de la inteligencia artificial sobre la humana, y por otro sugiere que la inteligencia artificial solo necesitar¨ªa algunas actualizaciones t¨¦cnicas durante seis meses de congelaci¨®n de su desarrollo. ?En qu¨¦ quedamos? ?C¨®mo es que la amenaza sea tan grave y que, al mismo tiempo, basten seis meses de moratoria para neutralizarla?
Si pasamos de la pol¨ªtica ficci¨®n a la pol¨ªtica real nos encontramos un escenario bien distinto. La Uni¨®n Europea es el ¨¢mbito pol¨ªtico en el que todo esto se est¨¢ regulando con mayor eficacia y rapidez. Pues bien, la propuesta Artificial Intelligence Act de la Comisi¨®n Europea lleva casi dos a?os sobre la mesa y desde entonces se discuten los detalles. Aunque la ley pudiera aprobarse este a?o, probablemente pasar¨¢n otros dos antes de que se aplique en los Estados de la UE. M¨¢s que una prueba de irresponsabilidad o lentitud injustificada, es una confirmaci¨®n de la complejidad del asunto, de que no es posible acelerar los procesos de regulaci¨®n y detener el desarrollo tecnol¨®gico, cuando hay que poner de acuerdo a muchos actores, incluidos los propios sectores tecnol¨®gicos que se pretende regular.
ChatGPT ha sorprendido a todo el mundo, generando fascinaci¨®n y p¨¢nico a partes iguales, al comprobar hasta qu¨¦ punto una tecnolog¨ªa pod¨ªa simular capacidades humanas. M¨¢s all¨¢ de esta primera impresi¨®n, es f¨¢cil entender que se trata de algo menos extraordinario de lo que parece, pues en la historia la mayor parte de las t¨¦cnicas fueron desarrolladas para mejorar, complementar e incluso sustituir a ciertas actividades humanas. No constituye ninguna ruptura civilizatoria inventar tecnolog¨ªas que hagan ciertas cosas mejor que nosotros, del mismo modo que tampoco la derrota de los humanos en el ajedrez o el go supusieron ninguna cat¨¢strofe. Es importante recordar que, hist¨®ricamente, las nuevas tecnolog¨ªas siempre han provocado fases de incertidumbre social, pero son s¨®lo pasajeras.
La carta es un ejercicio de alarmismo sobre los riesgos hipot¨¦ticos de una inteligencia sustitutoria de la humana. Sugiere capacidades completamente exageradas de los sistemas y los presenta como herramientas m¨¢s poderosas de lo que realmente son. De este modo, contribuye a distraer la atenci¨®n de los problemas realmente existentes, sobre los que tenemos que reflexionar ahora y no en un hipot¨¦tico futuro.
La principal aportaci¨®n de pedir una moratoria es concienciar a segmentos m¨¢s amplios de la poblaci¨®n de que, en efecto, hay cuestiones relevantes en juego. Lo m¨¢s valioso de esta petici¨®n de moratoria es su mensaje performativo, a saber, llamar la atenci¨®n sobre la importancia de lo que tienen entre manos la ciencia, la tecnolog¨ªa, la econom¨ªa, la pol¨ªtica, las instituciones educativas y el p¨²blico en general, y la petici¨®n de que se forjen las alianzas necesarias.
El problema no es que la inteligencia artificial sea ahora o en el futuro demasiado inteligente, sino que lo ser¨¢ demasiado poco mientras no hayamos resuelto su integraci¨®n equilibrada y justa en el mundo humano y en el entorno natural. Y eso no se conseguir¨¢ parando nada, sino con m¨¢s reflexi¨®n, investigaci¨®n, inteligencia colectiva, debate democr¨¢tico, supervisi¨®n ¨¦tica y regulaci¨®n.