La UE se inclina por la autorregulaci¨®n en la nueva ley de inteligencia artificial
Francia, Italia y Alemania creen que una regulaci¨®n estricta perjudicar¨¢ la innovaci¨®n. La directiva se negocia esta semana
?Qui¨¦n controla los riesgos de la inteligencia artificial, especialmente los llamados ¡°modelos fundacionales¡± como el ChatGPT? La nueva directiva europea sobre IA para esta tecnolog¨ªa ¡ªrevolucionaria pero tambi¨¦n enormemente disruptiva¡ª que ahora negocian las instituciones comunitarias para alumbrar un texto definitivo se inclina cada vez m¨¢s hacia la autorregulaci¨®n. La ¨²ltima propuesta de Espa?a, que preside este semestre el con...
?Qui¨¦n controla los riesgos de la inteligencia artificial, especialmente los llamados ¡°modelos fundacionales¡± como el ChatGPT? La nueva directiva europea sobre IA para esta tecnolog¨ªa ¡ªrevolucionaria pero tambi¨¦n enormemente disruptiva¡ª que ahora negocian las instituciones comunitarias para alumbrar un texto definitivo se inclina cada vez m¨¢s hacia la autorregulaci¨®n. La ¨²ltima propuesta de Espa?a, que preside este semestre el consejo de la UE y coordina las negociaciones, plantea ¡°unas obligaciones muy limitadas y la introducci¨®n de c¨®digos de conducta¡± para las compa?¨ªas, aunque con varias capas de supervisi¨®n intermedias, seg¨²n los documentos a los que ha tenido acceso EL PA?S. Pero el pulso sigue: el Parlamento Europeo reclama un marco algo m¨¢s duro, mientras Francia, Italia y Alemania ¡ªtres de los socios m¨¢s poderosos del club comunitario¡ª presionan para que la escala cubierta por los propios c¨®digos de conducta de las empresas superen a la de la normativa concreta; alegan que una regulaci¨®n estricta perjudicar¨¢ la innovaci¨®n de la investigaci¨®n y de las empresas europeas. Europa llega despu¨¦s de Estados Unidos, que ya ha aprobado su propia ley, que obliga a las tecnol¨®gicas a notificar al Gobierno de Estados Unidos cualquier avance que suponga un ¡°riesgo grave para la seguridad nacional¡±.
Espa?a, que ceder¨¢ el testigo de la presidencia a final de mes a B¨¦lgica y que ha puesto entre sus principales prioridades sacar adelante la hist¨®rica directiva, navega en esos equilibrios y ha planteado una serie de c¨®digos de conducta para los modelos fundacionales (o GPAI, por sus siglas en ingl¨¦s, aquellos capaces de crear contenidos de audio, texto o im¨¢genes a partir de la observaci¨®n de otros datos) que implican un mayor riesgo, real o potencial, aquellos que el reglamento denomina como ¡°modelos fundacionales de riesgo sist¨¦mico¡±: es decir, con capacidades de alto impacto cuyos resultados pueden ¡°no ser conocidos o comprendidos en el momento de su desarrollo y publicaci¨®n, por lo que pueden provocar riesgos sist¨¦micos a nivel de la UE¡±. C¨®digos que incluyan tanto ¡°medidas internas¡± como una interlocuci¨®n activa con la Comisi¨®n Europea para ¡°identificar riesgos sist¨¦micos potenciales, desarrollar posibles medidas mitigadoras y garantizar un nivel adecuado de protecci¨®n de ciberseguridad¡±, dice el plan.
Los c¨®digos de conducta tambi¨¦n incluir¨ªan obligaciones en materia de transparencia para ¡°todos¡± los modelos fundacionales, de acuerdo con la ¨²ltima posici¨®n negociadora, que plantea otros elementos, como que las compa?¨ªas informen de su consumo energ¨¦tico. Para todos los modelos fundacionales, se establecer¨ªan adem¨¢s algunas ¡°obligaciones horizontales¡±. Pero, adem¨¢s, la nueva directiva podr¨ªa incluir una cl¨¢usula que dar¨ªa poder a la Comisi¨®n Europea para adoptar una ¡°legislaci¨®n secundaria¡± sobre los modelos fundacionales de ¡°riesgo sist¨¦mico¡± para, si es necesario, especificar m¨¢s los elementos t¨¦cnicos de los modelos GPAI y mantener los puntos de referencia actualizados con el desarrollo tecnol¨®gico y del mercado¡±. Esto equivaldr¨ªa a dejar una puerta abierta para nuevos cap¨ªtulos normativos, seg¨²n fuentes comunitarias.
La propuesta espa?ola plantea tambi¨¦n la creaci¨®n de una Agencia de Supervisi¨®n para la Inteligencia Artificial, un organismo que pintar¨ªa una capa m¨¢s de seguridad, que proporcionar¨ªa un ¡°sistema centralizado de vigilancia e implementaci¨®n¡±. La agencia podr¨ªa, adem¨¢s, satisfacer los reclamos de la Euroc¨¢mara, que hab¨ªa solicitado la construcci¨®n de alg¨²n tipo de organismo especializado.
Las propuestas para terminar de hilvanar la directiva se debatir¨¢n este mi¨¦rcoles entre representantes de los Estados miembros (Espa?a, como presidencia del Consejo de la UE), el Parlamento Europeo y la Comisi¨®n, en una cita decisiva. Es una de las ¨²ltimas oportunidades de que salga adelante. Las negociaciones est¨¢n ya muy ¡°avanzadas¡± e incluso existir¨ªa ya acuerdo en lo que constituye la arquitectura general de la ley, basada en una pir¨¢mide de riesgo y en el principio, mantenido por la presidencia espa?ola en su ¨²ltima propuesta, de que el enfoque es ¡°tecnol¨®gicamente neutro¡±, es decir, no regular tecnolog¨ªas concretas, sino sus usos finales mediante la creaci¨®n de diversas categor¨ªas de riesgo, como propon¨ªa la Euroc¨¢mara.
Espa?a es optimista. ¡°La Uni¨®n Europea se convertir¨ªa en la primera regi¨®n del mundo en legislar los usos de la IA, sus l¨ªmites, la protecci¨®n de los derechos fundamentales de los ciudadanos y la participaci¨®n en su gobernanza, garantizando a la vez la competitividad de nuestras empresas¡±, se?ala la secretaria de Estado de Digitalizaci¨®n, Carme Artigas a EL PA?S. Artigas cree en la responsabilidad de la UE de ir m¨¢s all¨¢, para los usos de alto riesgo, de la instauraci¨®n de un c¨®digo de conducta y de modelos de autorregulaci¨®n y buenas pr¨¢cticas para poder acotar los riesgos que ya muestra esta tecnolog¨ªa innovadora, desde la desinformaci¨®n a la discriminaci¨®n, manipulaci¨®n, vigilancia o deep fakes. Todo teniendo en cuenta que hay que apoyar la innovaci¨®n y el avance. ¡°El reglamento europeo de IA es, por tanto, no solo un est¨¢ndar legal, ni tan solo un est¨¢ndar t¨¦cnico. Es un est¨¢ndar moral¡±, se?ala Artigas.
El problema, no obstante, es que siguen abiertos ¡ªy probablemente lo seguir¨¢n hasta que los negociadores vuelvan a verse cara a cara en la tarde del mi¨¦rcoles¡ª dos puntos clave: uno es la cuesti¨®n de los sistemas de vigilancia biom¨¦trica; el segundo es qui¨¦n controla los modelos fundacionales m¨¢s impredecibles, los denominados de ¡°riesgo sist¨¦mico¡±. Un debate alimentado por los ¨²ltimos sucesos en la saga de Open AI y de la salida y la vuelta de Sam Altman a la empresa puntera, ya que investigadores de Open AI avisaron al consejo de la compa?¨ªa de un poderoso descubrimiento de inteligencia artificial que, seg¨²n ellos, amenazaba a la humanidad antes del despido de Altman.
La tensi¨®n es m¨¢xima. Sobre todo desde que Alemania, Francia e Italia cambiaron tornas hace unas semanas y se declararon favorables a una amplia autorregulaci¨®n de las compa?¨ªas que desarrollan estos sistemas, mediante sendos c¨®digos de conducta, que, eso s¨ª, que ser¨ªan obligatorios. Los tres pa¨ªses han enviado al resto de Estados miembros un documento de posici¨®n en el que defienden la autorregulaci¨®n para la IA de prop¨®sito general, piden un ¡°enfoque equilibrado favorable a la innovaci¨®n¡± basado en el riesgo de la IA y que ¡°reduzca las cargas administrativas innecesarias¡± para las empresas que, dicen, ¡°obstaculizar¨ªan la capacidad de Europa para innovar¡±. Adem¨¢s, en el documento confidencial, al que ha tenido acceso este diario, apuestan por eliminar ¡°inicialmente¡± las sanciones por incumplimiento de los c¨®digos de conducta relativos a la transparencia y abogan por el di¨¢logo.
Sin embargo, la v¨ªa que transita esa propuesta de tres de los grandes de la UE ¡ªalguno, como Francia, que acoge empresas tecnol¨®gicas con v¨ªnculos con la IA, como Mistral¡ª es una l¨ªnea roja para otros Estados miembros y para muchos expertos, como ha mostrado la carta abierta enviada la semana pasada a Par¨ªs, Berl¨ªn, Roma y Madrid, adelantada por EL PA?S, en la que urgen a que la ley salga adelante y a que no sea diluida. Es decir, piden menos c¨®digos de conducta y m¨¢s normas.
¡°La autorregulaci¨®n no es suficiente¡±, sostiene tambi¨¦n Leonardo Cervera Navas, secretario general del Supervisor Europeo de Protecci¨®n de Datos (SEPD), que no oculta que le gustar¨ªa que la hipot¨¦tica y futura Oficina de IA recayera dentro de las responsabilidades del SEPD. Esta entidad supervisora, sugiere, podr¨ªa servir de bisagra entre los que prefieren la autorregulaci¨®n y los que exigen obligaciones puestas negro sobre blanco en una ley, dado que permitir¨ªa un grado alto de autorregulaci¨®n, pero supervisada en ¨²ltimo t¨¦rmino por una instancia superior e independiente de los intereses de las empresas. Para el experto, lo ideal es un ¡°enfoque regulador flexible, no excesivamente dogm¨¢tico, ¨¢gil, pero combinado con una fuerte supervisi¨®n¡±, que es la que realizar¨ªa esta oficina.
Es la postura tambi¨¦n de los negociadores de la Euroc¨¢mara, que insisten en que la directiva debe ser muy completa para garantizar la seguridad ciudadana y sus derechos fundamentales ante unas tecnolog¨ªas con un potencial intrusivo a veces inimaginable a¨²n. ¡°El Consejo debe abandonar la idea de tener solo compromisos voluntarios acordados con los desarrolladores de los modelos m¨¢s poderosos. Queremos unas obligaciones claras en el texto¡±, subraya por tel¨¦fono el eurodiputado italiano Brando Benifei, uno de los negociadores de la Euroc¨¢mara en las conversaciones interinstitucionales (los denominados tr¨ªlogos, que alumbran el verdadero texto legal).
Entre las obligaciones que los legisladores europeos consideran ¡°cruciales¡± y que deber¨ªan estar fijadas en la ley est¨¢n la gobernanza de datos, medidas de ciberseguridad y est¨¢ndares de eficiencia energ¨¦tica. ¡°No vamos a cerrar un acuerdo a cualquier coste¡±, advierte Benifei.
Lo que parece ya m¨¢s resuelto es la cuesti¨®n, muy importante para la Euroc¨¢mara, de prohibir o restringir al m¨¢ximo lo que denomina los ¡°usos intrusivos y discriminatorios de la IA¡±, especialmente los sistemas biom¨¦tricos en tiempo real o en espacios p¨²blicos, salvo muy contadas excepciones por motivos de seguridad. La posici¨®n de los eurodiputados es mucho m¨¢s estricta que la de los Estados y, aunque las negociaciones han sido ¡°dif¨ªciles¡±, hay un optimismo, cauto, eso s¨ª, acerca de la posibilidad de encontrar un punto medio. Siempre y cuando, se subraya desde el Parlamento Europeo, se siga manteniendo la prohibici¨®n de la polic¨ªa predictiva, la vigilancia biom¨¦trica en lugares p¨²blicos y los sistemas de reconocimiento de emociones en lugares de trabajo y en los sistemas educativos. ¡°Necesitamos un grado de protecci¨®n suficiente de los derechos fundamentales con las prohibiciones necesarias a la hora de usar [estas tecnolog¨ªas] para la seguridad y la vigilancia¡±, resume Benifei.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y X o apuntarte aqu¨ª para recibir nuestra newsletter semanal.