Europa quiere poner m¨¢s obligaciones a la inteligencia artificial generativa como la de ChatGPT
El Parlamento de la UE propone un texto legislativo que exigir¨¢ que se especifique qu¨¦ contenidos son creados por IA y que proh¨ªbe el uso de sistemas de identificaci¨®n biom¨¦trica en espacios p¨²blicos para evitar un ¡°gran hermano¡± estatal en el futuro
Ni Gran Hermano, ni Minority Report y, en lo posible, un mundo menos orwelliano de lo que ya es. El Parlamento Europeo ha dado este jueves un primer paso, que es en realidad un salto de gigante, para convertir a Europa en la primera regi¨®n del mundo que regule las todav¨ªa muy desconocidas posibilidades, y riesgos, de la inteligencia artificial (IA) y de sus versiones m¨¢s avanzadas, tanto las ya conocidas como las a¨²n por desarrollar. Dos a?os despu¨¦s de que la Comisi¨®n presentara su propuesta de reglamento para la IA, los eurodiputados quieren que los modelos generativos, que en aquel momento no eran conocidos por el gran p¨²blico y que son capaces de crear tanto im¨¢genes (v¨¦ase la famosa foto falsa del Papa vistiendo un llamativo abrigo de plumas blanco) como textos, especialmente el tan de moda y tan preocupante ChatGPT, est¨¦n obligados a cumplir medidas adicionales de transparencia, para dejar sobre todo claro que han sido creados mediante IA.
Preocupados por los potenciales efectos negativos en los derechos y libertades ciudadanas que puede tener esta tecnolog¨ªa en manos de empresas o gobiernos con pocos escr¨²pulos, los eurodiputados han ampliado adem¨¢s las limitaciones que conten¨ªa la propuesta original de la Comisi¨®n Europea: proponen as¨ª prohibir los ¡°usos intrusivos y discriminatorios de la IA¡±, especialmente los sistemas biom¨¦tricos en tiempo real o ex-post en espacios p¨²blicos, salvo muy contadas excepciones por motivos de seguridad. Se trata, ha resumido uno de los relatores de la propuesta legislativa, el eurodiputado italiano Brando Benifei, de proporcionar a Europa una legislaci¨®n con un enfoque ¡°¨¦tico y antropom¨®rfico¡± para ¡°ganar la confianza de los ciudadanos¡± en estos sistemas que tanto afectan y van a seguir afectando sus vidas sin impedir, a la par, el avance de las nuevas tecnolog¨ªas.
El texto aprobado este jueves con una amplia mayor¨ªa ¡ª84 votos a favor, 7 en contra y 12 abstenciones¡ª en una sesi¨®n conjunta de las comisiones de Libertades Civiles y Mercado Interior deber¨¢ ser todav¨ªa validado por el pleno de la Euroc¨¢mara, probablemente a mediados de junio. Desde ese momento, podr¨¢n comenzar las negociaciones con el Consejo (es decir, los Estados), que ya fij¨® su posici¨®n en diciembre, y con la Comisi¨®n, los denominados tr¨ªlogos, para acordar un texto final. El comisario detr¨¢s de la propuesta legislativa, Thierry Breton, ha manifestado su esperanza de que la denominada AI Act (Ley de Inteligencia artificial) pueda entrar en vigor en los Veintisiete como tarde en 2025.
¡°Estamos a punto de lograr un hito legislativo en el panorama digital no solo en Europa, sino para todo el mundo¡±, celebr¨® Benifei sobre el texto legislativo, que en el a?o escaso que lleva siendo trabajado en la Euroc¨¢mara ha recibido m¨¢s de 3.000 enmiendas. La IA va a ser algo que ¡°va a estar acech¨¢ndonos de alguna manera durante el resto de nuestras vidas¡±, constat¨® por su parte el presidente de la Comisi¨®n de Libertades Civiles, el espa?ol Juan Fernando L¨®pez Aguilar.
Organizaciones que luchan contra la capacidad de la IA por ejercer una vigilancia biom¨¦trica masiva han celebrado especialmente la defensa de la privacidad de las enmiendas aprobadas. Estas ampl¨ªan la lista de usos de sistemas de IA ya prohibidos en la propuesta original de la Comisi¨®n, que ya vetaba los denominados sistemas de cr¨¦dito social. A partir de ahora, deber¨ªa incluir tambi¨¦n tanto sistemas de identificaci¨®n biom¨¦trica remota en tiempo real en espacios p¨²blicos (como es el caso del reconocimiento facial) como los de identificaci¨®n posterior, con la ¨²nica excepci¨®n de su uso por las autoridades para investigar cr¨ªmenes graves, siempre y cuando cuenten con una autorizaci¨®n judicial.
Los eurodiputados tambi¨¦n incluyen en la lista de prohibiciones los sistemas de categorizaci¨®n biom¨¦trica que usen ¡°caracter¨ªsticas sensibles¡± como el g¨¦nero, raza, etnia, religi¨®n u orientaci¨®n pol¨ªtica, salvo para su uso ¡°terap¨¦utico¡±. Tambi¨¦n deber¨ªan quedar prohibidos los sistemas predictivos de vigilancia para evaluar el riesgo de una persona o grupo de personas de cometer un delito u ofensa (basados en la perfilaci¨®n, la localizaci¨®n de dichas personas o en su pasado criminal), as¨ª como los sistemas de reconocimiento de emociones por parte tanto de la polic¨ªa como de los agentes de fronteras o en lugares de trabajo o escuelas. Finalmente, tambi¨¦n se veta el rastreo aleatorio de datos biom¨¦tricos de redes sociales o c¨¢maras de vigilancia para crear o ampliar bases de datos de reconocimiento facial, una de las principales demandas de las organizaciones civiles preocupadas por el potencial Gran Hermano de estas nuevas tecnolog¨ªas.
¡°Desde el punto de vista de la vigilancia biom¨¦trica, estamos totalmente encantados con el texto¡±, asevera Ella Jakubowska, analista de la ONG europea en defensa de los derechos digitales EDRi. Su organizaci¨®n ha sido muy activa en Bruselas apoyando una postura restrictiva acerca de estas herramientas.
¡°Las c¨¢maras de reconocimiento facial de las calles o el an¨¢lisis en vivo del metraje de las videoc¨¢maras de vigilancia se deber¨¢n parar¡±, explica Jakubowska. Tampoco estar¨¢ permitido hacer b¨²squedas de personas a partir de im¨¢genes, cerr¨¢ndole las puertas a aplicaciones del tipo Clearview. ¡°Esa es una muy buena noticia¡±, considera la brit¨¢nica.
La polic¨ªa seguir¨¢ pudiendo manejar estos sistemas, pero con nuevas restricciones: siempre de forma retrospectiva (no en tiempo real) y en el contexto de cr¨ªmenes espec¨ªficos, para buscar a personas espec¨ªficas y con orden judicial. ¡°Todav¨ªa queda mucho hasta que se apruebe el texto definitivo, que puede cambiar. Pero hoy debemos alegrarnos por este triunfo significativo de los derechos humanos¡±, dice Jakubowska.
Regulaci¨®n por uso
Para conseguir que una normativa como esta, que regula tecnolog¨ªas en constante transformaci¨®n, no quede anticuada aun antes de su entrada en vigor, el reglamento de la IA se basa no en regular tecnolog¨ªas concretas, sino sus usos, creando categor¨ªas que van desde el riesgo ¡°inaceptable¡± (prohibidas por la legislaci¨®n) a otras menores que son aceptadas, aunque sometidas a rigurosos controles para que no afecten a las libertades y derechos ciudadanos. En su propuesta, los eurodiputados ampl¨ªan en este sentido la clasificaci¨®n de ¡°¨¢reas de alto riesgo¡±, permitida pero sujeta a obligaciones estrictas antes de que un producto en esta categor¨ªa pueda ser comercializado. As¨ª, incluyen en ella aquellos sistemas de IA que puedan afectar la salud o seguridad de los ciudadanos, as¨ª como sus derechos fundamentales o el medioambiente. Tambi¨¦n categorizan como de ¡°alto riesgo¡± los sistemas de IA que puedan ¡°influir a votantes en campa?as pol¨ªticas¡±, as¨ª como los de recomendaci¨®n que usan las plataformas sociales.
Para que la normativa europea pueda ser aplicada a nuevas tecnolog¨ªas como los sistemas generativos del ChatGPT, que deber¨ªa entrar en la categor¨ªa de ¡°alto riesgo¡±, los eurodiputados agregan adem¨¢s nuevas definiciones: por un lado, incluyen el concepto de ¡°modelo fundacional¡±, o gran modelo, para cubrir la IA generativa ¡ªcapaz de crear nuevos contenidos originales de audio, texto o im¨¢genes a partir de la observaci¨®n de otros datos¡ª. Tambi¨¦n agregan la definici¨®n ¡°sistemas de IA de prop¨®sito general¡±, que explican como ¡°un sistema de IA que puede ser usado para y adaptado a un amplio espectro de aplicaciones para el que no fue dise?ado intencional y espec¨ªficamente¡±, y que deber¨¢ incluir a esos ¡°modelos fundacionales¡±.
Los proveedores de estos modelos fundacionales deber¨¢n, seg¨²n la propuesta de los eurodiputados, garantizar una ¡°protecci¨®n robusta¡± de los derechos fundamentales ciudadanos, para lo que deber¨¢n ¡°evaluar y mitigar riesgos, cumplir con los requisitos de dise?o, informaci¨®n y medioambientales¡± europeos y estar ¡°registrados¡± en la base de datos de la UE.
Modelos generativos como ChatGPT deber¨¢n cumplir requisitos adicionales de ¡°transparencia¡±: as¨ª, tendr¨¢n que dejar claro que el contenido fue generado por un sistema de IA. Adem¨¢s, deber¨¢n dise?ar sus modelos de forma tal que impidan que estos creen contenido ilegal y, en aras de la protecci¨®n de los derechos de autor, deber¨¢n publicar los datos usados para el entrenamiento de estos sistemas, de manera tal que si un autor considera que se han violado sus derechos mediante el uso de su material por los algoritmos, pueda acudir a las v¨ªas legales existentes en la UE para reclamar o exigir una indemnizaci¨®n.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.