Aciertos y puntos cr¨ªticos del primer reglamento integral del mundo
Nace, despu¨¦s de una gestaci¨®n dif¨ªcil, el marco jur¨ªdico de la IA para la Uni¨®n Europea y su relaci¨®n con otros pa¨ªses e intereses. Un intento pionero de limitar todos sus riesgos sin coartar su potencial.
La inteligencia artificial supone, sin duda alguna, un cambio de paradigma. Plantea retos jur¨ªdicos, sociales y ¨¦ticos que deben ser abordados a la hora de dise?ar la normativa que regule su uso, con el fin de garantizar el orden social, econ¨®mico y ¨¦tico de nuestra sociedad.
Desde el punto de vista legal, las cuestiones que m¨¢s preocupan se centran en asuntos tan relevantes como la responsabilidad por da?os, la privacidad, la ciberseguridad, la propiedad intelectual o la ¨¦tica. Y es que una de las bases fundamentales de la IA es el procesamiento de grandes vol¨²menes de datos a trav¨¦s de t¨¦cnicas como el deep learning y el uso de redes neuronales que funcionan como las conexiones biol¨®gicas del cerebro humano y pueden imitar nuestras capacidades cognitivas.
En este contexto, la Comisi¨®n Europea, consciente de las oportunidades de esta tecnolog¨ªa, pero tambi¨¦n de sus riesgos como la opacidad en la toma de decisiones, las discriminaciones de g¨¦nero o de otros tipos, la intromisi¨®n en nuestras vidas privadas o su uso con fines delictivos, present¨®, ya en el a?o 2018, la Estrategia Europea para la IA, cuyo objetivo es promover una tecnolog¨ªa confiable en Europa. En este marco, el Parlamento Europeo aprob¨® el 13 de marzo de 2024 el texto de la primera norma mundial integral en la materia (Reglamento IA), el cual ser¨¢ de aplicaci¨®n directa en los Estados miembros y m¨¢s all¨¢ de las fronteras de la Uni¨®n Europea (UE).
No es la ¨²nica norma que la regula, pero s¨ª la ¨²nica en el mundo en abordarla de manera integral poniendo el foco en los riesgos que sus usos conllevan para los derechos fundamentales y los valores de la UE.
El Reglamento IA regula la entrada en el mercado y el uso de soluciones IA que atenten contra los derechos fundamentales y valores de la UE. As¨ª, por ejemplo, proh¨ªbe la entrada en el mercado y el uso en la UE de soluciones que permitan manipular el comportamiento de personas o grupos vulnerables espec¨ªficos; por ejemplo, juguetes activados por voz que fomentan comportamientos peligrosos en los ni?os. La UE ha vetado tambi¨¦n la puesta en circulaci¨®n y el uso de sistemas de puntuaci¨®n social, como la clasificaci¨®n de personas en funci¨®n de su comportamiento, estatus socioecon¨®mico o caracter¨ªsticas personales, que generar¨ªan sociedades dist¨®picas indeseables.
As¨ª mismo, a diferencia de otros pa¨ªses como China, se proh¨ªbe oportunamente el uso de sistemas de identificaci¨®n biom¨¦trica en tiempo real y a distancia como el reconocimiento facial (con determinadas excepciones), que producir¨ªan una injerencia en la privacidad y los derechos fundamentales. Se entiende que estos usos violan los derechos fundamentales, los valores y los principios ¨¦ticos de la UE y por ello se proh¨ªben.
Pone barreras infranqueables cuando los usos de la IA son contrarios a la democracia y al sistema de valores de la UE, adem¨¢s exige controles a fabricantes y usuarios de herramientas que pueden suponer riesgos para la salud y los derechos fundamentales
Por otro lado, se imponen obligaciones para los fabricantes, distribuidores, importadores y responsables del despliegue (usuarios) de los sistemas que, si bien, podr¨ªan suponer un riesgo para los ciudadanos europeos, se permiten siempre y cuando, cada uno de los operadores que participan en la cadena de suministro del sistema IA para su puesta en marcha y uso en Europa cumplan con los requisitos y medidas que permitir¨¢n mitigar dichos riesgos de manera controlada. En los casos de riesgo alto, las imposiciones obligatorias son elevadas. Los fabricantes o responsables del despliegue tendr¨¢n que hacer una evaluaci¨®n de riesgos e implementar las medidas mitigadoras.
Un ejemplo de sistema de riesgo alto ser¨ªa aqu¨¦llos que sean utilizados para los procesos de selecci¨®n de personal. Entre otras medidas, se obliga a que exista supervisi¨®n humana (man in the loop). Con esta medida se evita que los algoritmos de selecci¨®n reproduzcan, mediante el aprendizaje de patrones hist¨®ricos, sesgos humanos. Hace ya unos a?os, una gran empresa utiliz¨® en EE UU una herramienta IA para esta tarea y, como resultado, solo contrataba a hombres blancos porque hab¨ªa aprendido que el mayor porcentaje de decisiones de esa compa?¨ªa en los diez ¨²ltimos a?os conclu¨ªa en la contrataci¨®n de hombres blancos, discriminando a las mujeres y personas de color.
En el extremo m¨¢s bajo de la pir¨¢mide estar¨ªan las herramientas de IA cuyo uso suponen un riesgo m¨ªnimo para las personas. Este es el caso de los chatbots o las ultrafalsificaciones (deep fakes), para los cuales se imponen, entre otros, unos requisitos m¨ªnimos en materia de transparencia.
La UE busca con este sistema preservar su liderazgo tecnol¨®gico y garantizar, a su vez, que los europeos puedan confiar en una IA respetuosa de los valores, los derechos fundamentales y los principios de la UE.
Sin embargo, junto con el Reglamento IA ser¨¢ tambi¨¦n necesario revisar otras normas que deber¨¢n adaptarse a los nuevos escenarios que plantear¨¢ la IA. As¨ª, por ejemplo, ocurre con la normativa sobre responsabilidad por los da?os causados por productos defectuosos, en cuya revisi¨®n la Uni¨®n Europea est¨¢ ya trabajando.
Otros retos jur¨ªdicos que plantean estas herramientas son los relacionados con la propiedad intelectual. De un lado, por la posible infracci¨®n de derechos que puede suponer el aprendizaje de los algoritmos para producir resultados (outputs) mediante la extracci¨®n y miner¨ªa de una cantidad ingente de datos, si estos no han sido utilizados con el consentimiento oportuno del titular de los mismos o su uso no puede ampararse en alguna excepci¨®n legal.
De otro lado, teniendo en cuenta que el sistema de derechos de propiedad intelectual se basa en la atribuci¨®n de autor¨ªa de una obra por el hecho de haber sido creada por una persona f¨ªsica, se hace dif¨ªcil atribuir esa autor¨ªa sobre aquellos resultados producidos por una m¨¢quina o un algoritmo. Es este un debate interesante que es objeto de litigios en pa¨ªses como Reino Unido y EE UU.
En definitiva, el Reglamento IA establece los l¨ªmites sobre el uso de IA en la Uni¨®n, pone barreras infranqueables cuando los usos son contrarios a la democracia y al sistema de valores de la UE, adem¨¢s exige controles a los fabricantes y usuarios de herramientas IA que pueden suponer riesgos para la salud y los derechos fundamentales de los europeos.
No es trivial, pero esto no ha hecho m¨¢s que empezar. Iremos modernizando nuestro sistema normativo en funci¨®n de las nuevas realidades, operativas y riesgos que la IA nos va a plantear. A la velocidad con la que est¨¢n evolucionando estos sistemas, el peligro radica en que el Reglamento IA se nos quede obsoleto en un corto espacio de tiempo.