Carme Artigas: ¡°El progreso tecnol¨®gico no puede llevarse por delante derechos fundamentales¡±
La secretaria de Estado de Digitalizaci¨®n se muestra convencida de que el reglamento europeo de la inteligencia artificial podr¨¢ ser aprobado durante la presidencia espa?ola de la UE
La presidencia espa?ola de la UE ha conferido a la secretaria de Estado de Digitalizaci¨®n e Inteligencia Artificial, Carme Artigas, la batuta de directora de orquesta en la fase final de las negociaciones del esperado reglamento europeo de la inteligencia artificial (AI Act). La norma ordenar¨¢ los usos y excepciones de esta tecnolog¨ªa con un enfoque basado en los riesgos que representa para a la ciudadan¨ªa cada una de ellas. A mayor riesgo, m¨¢s medidas de control para la aplicaci¨®n o hasta su prohibici¨®n. Entran en esta ¨²ltima categor¨ªa, por el momento, los sistemas de inteligencia artificial (IA) que ¡°manipulen¡±, los que sirvan para la clasificaci¨®n social o los de identificaci¨®n biom¨¦trica remotos o en tiempo real.
Las discusiones entre los representantes del Parlamento Europeo, partidario de limitar al m¨¢ximo las posibles aplicaciones oscuras de la IA; los Estados miembros, que quieren poder recurrir a estas en caso de urgencia, y la Comisi¨®n, est¨¢n haciendo de estas negociaciones un tr¨¢mite lento y delicado. ¡°Conf¨ªo en que podremos aprobar el reglamento durante esta presidencia [acaba el 31 de diciembre]¡±, dice la secretaria de Estado.
Nacida en Vilassar de Mar hace 55 a?os, Artigas fue nombrada hace dos semanas copresidenta de un consejo internacional de expertos de Naciones Unidas encargado de preparar un mecanismo de gobernanza para la IA. Su compa?ero al frente de ese grupo es James Manyika, vicepresidente de Google, una se?al clara de que la industria est¨¢ muy presente en la discusi¨®n. La secretaria de Estado recibe a EL PA?S antes de volar a Londres a la Cumbre sobre Seguridad de la IA, en la que 28 pa¨ªses, entre ellos EE UU y China, acordaron cooperar para afrontar los riesgos de esta tecnolog¨ªa.
Great day at #AISafetySummit @SciTechgovuk at #BlentchleyPark (yes, where A.Turing deciphered #Enigma). Meeting the #BigTech boys @elonmusk and James Manyika #Alphabet @Google. Discussing about #AIGovernance and international cooperation. pic.twitter.com/GZlqO0u4bQ
— Carme Artigas (@carmeartigas) November 1, 2023
Pregunta. ?Cu¨¢l es su responsabilidad en el nuevo consejo asesor de la ONU?
Respuesta. Nuestro cometido es analizar las oportunidades, los riesgos y el impacto que supone la IA para la sociedad y dise?ar un mecanismo de gobernanza internacional para esa tecnolog¨ªa. Es un toque de atenci¨®n sobre la importancia de regular la IA: esto se tiene que coordinar internacionalmente y se debe involucrar al sur global. Para diciembre tenemos que haber elaborado unas primeras conclusiones, que presentaremos en Nueva York. Creo que es una oportunidad ¨²nica para influenciar el proceso desde la visi¨®n que tenemos en Espa?a del humanismo tecnol¨®gico y desde el enfoque europeo, basado en la protecci¨®n de derechos.
P. ?C¨®mo cree que deber¨ªa ser ese mecanismo de gobernanza de la IA?
R. Hay muchos modelos, como el Organismo Internacional de la Energ¨ªa At¨®mica o el Grupo Intergubernamental para el Cambio Clim¨¢tico [IPCC por sus siglas en ingl¨¦s], en el que primero llegas a consensos cient¨ªficos y despu¨¦s intentas que haya una respuesta de los Estados. Hay que pensar que en torno a la IA hay muchos puntos de vista distintos: la visi¨®n que se tiene en China no es la misma que la de Estados Unidos, y esta tampoco es igual a la de Europa. Ahora mismo hay muchos foros internacionales sobre este tema. Es el momento de unificarlos, de sumar fuerzas con la industria.
P. La ONU le ha dado mucha importancia a la crisis clim¨¢tica y, sin embargo, el problema dista de estar solucionado. ?Por qu¨¦ tendr¨ªa que ser distinto con la IA?
R. Justamente he tenido una conversaci¨®n con el copresidente sobre c¨®mo hac¨ªamos que nuestro trabajo no se quede en una serie de recomendaciones te¨®ricas. Vamos a intentar aprender de las mejores pr¨¢cticas. El IPCC es un buen punto de partida, pero necesita mejoras. Estamos buscando un mecanismo que no sea tan complejo de mantener como una agencia internacional y que tenga contacto con la Academia, porque la IA est¨¢ evolucionando muy r¨¢pido.
P. ?C¨®mo se puede plantear una respuesta coordinada de los pa¨ªses y la industria si sus intereses a menudo colisionan?
R. Estados Unidos ten¨ªa su modelo de apoyo sin l¨ªmites al desarrollo de su industria. China, tambi¨¦n. La europea era la tercera v¨ªa: creemos que el progreso tecnol¨®gico no puede llevarse por delante derechos fundamentales. Al principio nadie nos hac¨ªa caso, pero la emergencia de ChatGPT ha permitido que en otras latitudes y en la propia industria se empezasen a dar cuenta de que esta tecnolog¨ªa, en manos de los malos, puede tener efectos negativos. EE UU acaba de anunciar su orden ejecutiva. En Europa, pensamos que tenemos que ir m¨¢s all¨¢, queremos que la propia tecnolog¨ªa sea m¨¢s transparente, m¨¢s justa. En China, contra lo que se pueda pensar, est¨¢n muy preocupados en poner l¨ªmites, por ejemplo, a los deepfakes. Algunos no han tomado conciencia hasta 2023. Otros ya ven¨ªamos trabajando en ellos desde 2020. Justamente por eso, ahora es el momento en sumar esas visiones.
P. ?El reglamento de IA es la forma de abordar este problema?
R. Estamos convencidos de que s¨ª. Nadie est¨¢ planteando como nosotros un enfoque basado en el impacto de esta tecnolog¨ªa en los derechos fundamentales, en los usos prohibidos de la IA. M¨¢s que poner en marcha un reglamento o un est¨¢ndar legal o t¨¦cnico, estamos desarrollando un est¨¢ndar moral. Le decimos al mundo lo que va a ser aceptable o no hacer con la IA. Por ejemplo, tengo que saber si algo est¨¢ generado por IA generativa.
P. ?Han acordado ya qu¨¦ casos ser¨¢n los prohibidos y cu¨¢les de alto riesgo?
R. Ese es quiz¨¢s el punto m¨¢s importante del debate que estamos teniendo. Debemos decidir qu¨¦ requisitos le pedimos a los sistemas de alto riesgo [los que est¨¢n permitidos pero muy limitados] y qu¨¦ requisitos de transparencia le pedimos a los modelos fundacionales [en los que se apoya la IA generativa, como ChatGPT]. El Parlamento Europeo ha querido ampliar el control de la norma tambi¨¦n hasta la IA generativa, algo que inicialmente no estaba previsto. No regulamos tecnolog¨ªas, sino casos de uso. Un martillo puede clavar un clavo o matar a alguien. De lo que hay que asegurarse es de que si pasa lo segundo, el responsable vaya a la c¨¢rcel.
P. Al ocupar la presidencia de la UE, Espa?a est¨¢ dirigiendo las negociaciones entre Comisi¨®n, Consejo y Parlamento. ?Marchan bien?
R. Estamos acercando muchas posiciones. Hemos definido muy bien lo que son los sistemas de alto riesgo y empezamos a trabajar en este debate sobre qu¨¦ son los usos prohibidos. El Parlamento dio una lista que nosotros vemos excesiva y que en algunos casos podr¨ªan ir en contra de la seguridad nacional de los Estados. Estamos ahora definiendo qu¨¦ garant¨ªas extraordinarias establecemos para que no pueda existir, por ejemplo, un abuso de poder por parte de un Estado en la utilizaci¨®n de esas tecnolog¨ªas. Tenemos que poner l¨ªmites, pero a la vez favorecer y no ahuyentar la innovaci¨®n, y ese equilibrio es dif¨ªcil. Creo que lograremos aprobar la normativa durante la presidencia espa?ola.
P. ?Qu¨¦ escollos hay ahora mismo, m¨¢s all¨¢ de los usos prohibidos?
R. Hay una serie de empleos prohibidos consensuados, como el scrapping [extracci¨®n de datos] de im¨¢genes tomadas por c¨¢maras de vigilancia o los sistemas de calificaci¨®n de cr¨¦dito social. Estamos viendo si encontramos el punto adecuado en el reconocimiento biom¨¦trico, exceptuando algunos casos, como su utilizaci¨®n en la investigaci¨®n de ciertos cr¨ªmenes graves. Nadie quiere que haya un abuso de esas t¨¦cnicas por parte de la polic¨ªa o de los gobiernos. Si hacemos esto, tenemos que ofrecer garant¨ªas extras de control. Este es ahora el centro del debate, pero no podemos revelar cu¨¢l es la soluci¨®n que estamos buscando. Se est¨¢ trabajando a nivel jur¨ªdico, t¨¦cnico y pol¨ªtico. La apuesta es muy alta porque nunca se hab¨ªa hecho en el mundo una regulaci¨®n as¨ª.
P. La tecnolog¨ªa cambia muy r¨¢pido, como se ha visto con la irrupci¨®n de ChatGPT. ?C¨®mo har¨¢n para que el reglamento no quede obsoleto?
R. La clave de este reglamento ser¨¢ que supere la prueba del tiempo. Para eso, debe poder actualizarse. Estamos viendo, por ejemplo, c¨®mo hacer para que los casos de uso de riesgo se puedan actualizar f¨¢cilmente. Habr¨¢ un mecanismo de coordinaci¨®n europeo de las agencias nacionales de la inteligencia artificial que velar¨¢ por ello.
P. ?Sigue en contra de que haya una moratoria en la investigaci¨®n de IA?
R. La carta [en la que centenares de expertos solicitaron en marzo una pausa de seis meses en la investigaci¨®n de esta tecnolog¨ªa] fue un toque de atenci¨®n de la comunidad cient¨ªfica: cuidado, que aqu¨ª estamos desarrollando algo sin saber su impacto real. Situaba los da?os irreparables a muy largo plazo, cuando nosotros pensamos que los estamos sufriendo ya: las propias fake news, la suplantaci¨®n de identidad con los deepfakes, la posibilidad de sesgos, de discriminaci¨®n¡ Antes de hablar de problemas existenciales de la humanidad hay que atajar lo que pasa hoy. Es imposible parar la innovaci¨®n; lo que hay que hacer es asegurarse de que ese progreso va en la buena direcci¨®n. La innovaci¨®n debe acelerarse para que la propia industria encuentre la manera de resolver los problemas que ella misma ha creado.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y X o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.