Diez respuestas sobre la ley europea de inteligencia artificial
La aprobaci¨®n de una norma pionera en el mundo abre interrogantes sobre su aplicaci¨®n tras haber experimentado un desarrollo vertiginoso sin regular hasta ahora
Los sistemas y programas de inteligencia artificial (IA) son capaces de realizar tareas propias de la inteligencia humana, como razonar, aprender (machine learning), percibir, comprender el lenguaje natural y resolver problemas. Ya est¨¢ presente en todos los ¨¢mbitos de nuestra vida, desde las aplicaciones habituales de compras o visionado de pel¨ªculas hasta el desarrollo de nuevas f¨®rmulas farmac¨¦uticas o la organizaci¨®n de procesos de producci¨®n. Permite automatizar tareas, tomar decisiones, mejorar la eficiencia y aportar soluciones en ¨¢mbitos tan diversos como la medicina, la industria, la rob¨®tica o los servicios financieros. La ley europea de IA comienza desde ahora a aplicarse gradualmente con el objetivo de garantizar su desarrollo con unos criterios ¨¦ticos y legales. Estas son 10 respuestas a las dudas que genera una iniciativa pionera en el mundo:
?Por qu¨¦ Europa la regula?
La inteligencia artificial aporta beneficios sociales, fomenta el crecimiento econ¨®mico y mejora la innovaci¨®n y competitividad. Estas aplicaciones, en general, plantean un riesgo bajo o nulo. Pero otras pueden generar situaciones contrarias a los derechos y libertades, como los usos de inteligencia artificial para generar im¨¢genes pornogr¨¢ficas no deseadas o la utilizaci¨®n de datos biom¨¦tricos para categorizar a las personas por rasgos de su aspecto o su aplicaci¨®n en procesos de contrataci¨®n, educaci¨®n, asistencia sanitaria o de actuaci¨®n policial predictiva.
?Cu¨¢les son las categor¨ªas de riesgo?
Riesgo m¨ªnimo: En esta categor¨ªa est¨¢n la mayor¨ªa de sistemas. Para estas aplicaciones, el proveedor, de forma voluntaria, puede adoptar los requisitos ¨¦ticos y adherirse a c¨®digos de conducta. Se considera IA de uso general aquella entrenada con una potencia inform¨¢tica de 10?? operaciones de coma flotante por segundo (FLOPS, por sus siglas en ingl¨¦s). FLOPS es la medida del rendimiento de una computadora y la Comisi¨®n considera la mencionada dimensi¨®n como el umbral de posibles riesgos sist¨¦micos. La UE considera que ChatGPT-4, de OpenAI, y Gemini, de Google DeepMind, podr¨ªan estar en este umbral, que podr¨¢ revisarse mediante un acto delegado.
Alto riesgo: Son los modelos que, potencialmente, pueden afectar a la seguridad de las personas o a sus derechos. La lista est¨¢ abierta a revisi¨®n permanente, pero la norma prev¨¦ ya ¨¢mbitos de aplicaci¨®n incluidos en esta categor¨ªa, como infraestructuras cr¨ªticas de comunicaci¨®n y suministro, educaci¨®n, gesti¨®n del personal o acceso a servicios esenciales.
Riesgo inadmisible: Los sistemas que se incluyan en esta categor¨ªa est¨¢n prohibidos porque vulneran los derechos fundamentales. En esta lista est¨¢n aquellos de clasificaci¨®n o puntuaci¨®n social, los que aprovechan la vulnerabilidad de las personas y los de identificaci¨®n de raza, opini¨®n, creencia, orientaci¨®n sexual o reacci¨®n emocional. Se prev¨¦n excepciones para su uso policial con el fin de perseguir 16 delitos concretos relacionados con la desaparici¨®n de personas, secuestros, trata y explotaci¨®n sexual, prevenci¨®n de amenazas para la vida o la seguridad o respuesta a la amenaza actual o previsible de un ataque terrorista. En caso de urgencia, se puede autorizar un uso excepcional, pero, si se deniega, todos los datos e informaci¨®n tienen que ser suprimidos. En circunstancias no urgentes, ha de ir precedida de una evaluaci¨®n previa de las repercusiones desde el punto de vista de los derechos fundamentales y debe notificarse a la autoridad de vigilancia del mercado pertinente y a la autoridad de protecci¨®n de datos.
Riesgo espec¨ªfico para la transparencia: Se refiere a los peligros de manipulaci¨®n que se generan con bulos de apariencia real (deepfakes) o con aplicaciones conversacionales. La norma obliga a dejar patente de forma inequ¨ªvoca que el usuario est¨¢ ante una creaci¨®n artificial o que se interact¨²a con una m¨¢quina.
Riesgo sist¨¦mico: La norma tiene en cuenta que el uso generalizado de sistemas de gran capacidad puede ocasionar da?os masivos o de amplio alcance, como el caso de ciberataques o de propagaci¨®n de un bulo financiero o un sesgo.
?Qui¨¦nes deben someterse a la ley?
Todos los agentes, tanto p¨²blicos como privados, que utilicen sistemas de inteligencia artificial dentro de la UE deben someterse a la ley, sean o no europeos. Afecta a los proveedores de programas, a los que los aplican y a quienes los compran. Todos deben velar por que su sistema sea seguro y conforme a la ley. En el caso de sistemas de alto riesgo, antes y despu¨¦s de ser comercializados o puestos en servicio, los sistemas deber¨¢n ser sometidos a una evaluaci¨®n de conformidad para garantizar la calidad de los datos, trazabilidad, transparencia, supervisi¨®n humana, exactitud, ciberseguridad y solidez. Esta evaluaci¨®n debe repetirse si el sistema o su finalidad se modifican sustancialmente. Los sistemas de inteligencia artificial de alto riesgo utilizados por las autoridades o entidades que act¨²en en su nombre deber¨¢n, adem¨¢s, estar registrados en una base de datos p¨²blica de la UE, a menos que tales sistemas se empleen a efectos policiales y de migraci¨®n. Los proveedores de modelos con riesgos sist¨¦micos (potencia inform¨¢tica de m¨¢s de 10?? FLOPS) tienen la obligaci¨®n de evaluarlos y mitigarlos, notificar los incidentes graves, llevar a cabo pruebas y evaluaciones avanzadas, garantizar la ciberseguridad y facilitar informaci¨®n sobre el consumo de energ¨ªa de sus modelos.
?Qu¨¦ debe incluir una evaluaci¨®n de conformidad?
Los procesos, el per¨ªodo y la frecuencia de uso, las categor¨ªas de personas f¨ªsicas y grupos afectados, los riesgos espec¨ªficos, las medidas de vigilancia humana y el plan de actuaci¨®n en caso de materializaci¨®n de los riesgos.
?C¨®mo sabe un proveedor los efectos de su producto?
Las grandes corporaciones ya cuentan con sistemas propios para adaptarse a la norma. Para las entidades menores y aquellas que usen sistemas de c¨®digo abierto, la ley crea espacios controlados de pruebas y ensayo en condiciones reales, que aportan un entorno controlado para probar tecnolog¨ªas innovadoras durante seis meses prorrogables a otros tantos. Podr¨¢n ser objeto de inspecciones.
?Qui¨¦nes est¨¢n exentos?
Los proveedores de modelos gratuitos y de c¨®digo abierto est¨¢n exentos de las obligaciones relacionadas con la comercializaci¨®n, pero no de la obligaci¨®n de evitar los riesgos. Tampoco afecta la norma a las actividades de investigaci¨®n, desarrollo y creaci¨®n de prototipos o a los desarrollos destinados a usos de defensa o de seguridad nacional. Los sistemas de IA de uso general s¨ª tendr¨¢n que cumplir los requisitos de transparencia, como la elaboraci¨®n de documentaci¨®n t¨¦cnica, el cumplimiento de la legislaci¨®n de la UE en materia de derechos de autor y la difusi¨®n de res¨²menes detallados sobre los contenidos utilizados para el entrenamiento del sistema.
?Qui¨¦n vigila el cumplimiento?
Se establece una Oficina Europea de Inteligencia Artificial, un panel de asesoramiento cient¨ªfico y autoridades de vigilancia nacionales para el seguimiento de los sistemas y autorizaci¨®n de aplicaciones. Las agencias y oficinas de IA deber¨¢n tener acceso a la informaci¨®n necesaria para cumplir sus obligaciones.
?Cu¨¢ndo ser¨¢ plenamente aplicable la Ley de IA?
Tras su adopci¨®n, la Ley de IA entra en vigor a los 20 d¨ªas de su publicaci¨®n y ser¨¢ plenamente aplicable en 24 meses, de forma gradual. En los primeros seis meses, los Estados miembros deben eliminar los sistemas prohibidos. En un a?o, se impondr¨¢n las obligaciones de gobernanza para la IA de uso general. En dos a?os, deben estar adecuados todos los sistemas alto riesgo.
?Cu¨¢les son las sanciones por las infracciones?
Cuando se comercialicen o utilicen sistemas de inteligencia artificial que no cumplan los requisitos del Reglamento, los Estados miembros deber¨¢n establecer sanciones efectivas, proporcionadas y disuasorias por las infracciones y notificarlas a la Comisi¨®n. Se prev¨¦n multas de hasta 35 millones de euros o el 7% del volumen de negocios anual a escala mundial del ejercicio financiero anterior, hasta 15 millones de euros o el 3% del volumen de negocios y hasta 7,5 millones de euros o el 1,5% del volumen de negocios. En cada categor¨ªa de infracci¨®n, el umbral ser¨ªa el menor de los dos importes para las pymes y el m¨¢s elevado para las dem¨¢s empresas.
?Qu¨¦ puede hacer la v¨ªctima de una infracci¨®n?
La Ley de IA prev¨¦ el derecho a presentar una denuncia ante una autoridad nacional y facilita a las personas la reclamaci¨®n de una indemnizaci¨®n por los da?os causados por sistemas de inteligencia artificial de alto riesgo.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y X o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.