La UE pone l¨ªmites a la inteligencia artificial pero se olvida de las armas aut¨®nomas
La Comisi¨®n presenta hoy un reglamento que prohibir¨¢ las aplicaciones m¨¢s peligrosas de esta tecnolog¨ªa, como la ¡°vigilancia indiscriminada¡±, pero que deja fuera las aplicaciones militares
Reconocimiento facial, conducci¨®n aut¨®noma, escucha de redes, rob¨®tica, investigaci¨®n de nuevos f¨¢rmacos, mecanismos de c¨¢lculo de probabilidad de retorno de un cr¨¦dito¡ La inteligencia artificial (IA) tiene muchas caras. La m¨¢s temida es su versi¨®n orwelliana: este grupo de tecnolog¨ªas ¨Csu crecimiento ha sido tal que ya no se puede hablar de una sola¨C ha demostrado ser muy ¨²til para vigilar a los ciudadanos e influir en sus decisiones. Ya ...
Reg¨ªstrate gratis para seguir leyendo
Si tienes cuenta en EL PA?S, puedes utilizarla para identificarte
Reconocimiento facial, conducci¨®n aut¨®noma, escucha de redes, rob¨®tica, investigaci¨®n de nuevos f¨¢rmacos, mecanismos de c¨¢lculo de probabilidad de retorno de un cr¨¦dito¡ La inteligencia artificial (IA) tiene muchas caras. La m¨¢s temida es su versi¨®n orwelliana: este grupo de tecnolog¨ªas ¨Csu crecimiento ha sido tal que ya no se puede hablar de una sola¨C ha demostrado ser muy ¨²til para vigilar a los ciudadanos e influir en sus decisiones. Ya sucede en China y, seg¨²n la matem¨¢tica Cathy O¡¯Neil, tambi¨¦n en Occidente, aunque de forma velada. La Uni¨®n Europea no quiere dejar que florezca el lado oscuro de estos sistemas. La Comisi¨®n presenta hoy una propuesta de reglamento, cuyo borrador se filtr¨® la semana pasada, que sentar¨¢ las bases del desarrollo de la inteligencia artificial en el continente.
El texto inicia ahora el proceso de tramitaci¨®n en el Parlamento Europeo, y por tanto puede alterarse. La aproximaci¨®n de Bruselas al asunto es la misma que se aplic¨® al Reglamento General de Protecci¨®n de Datos (RGPD), en vigor desde 2018: eval¨²a el riesgo de las distintas aplicaciones de la inteligencia artificial y restringe o proh¨ªbe las que considera m¨¢s peligrosas. La redacci¨®n de la norma deja claro en el pre¨¢mbulo que su objetivo es que la inteligencia artificial asuma en la UE un enfoque ¡°centrado en el ser humano¡±. Traducci¨®n: en Europa no se va a dejar a las empresas que hagan lo que les plazca.
Restricciones y prohibiciones
Entra en la categor¨ªa de ¡°alto riesgo¡±, y por tanto queda prohibida, la ¡°vigilancia indiscriminada¡±. Se entiende por ello a los sistemas que rastrean a los ciudadanos en entornos f¨ªsicos, situ¨¢ndolos en una ubicaci¨®n exacta en un momento determinado, o que extraen datos agregados sobre estos.
Tambi¨¦n son de alto riesgo los llamados ¡°sistemas de identificaci¨®n biom¨¦trica remota¡±, t¨¦rmino que alude al reconocimiento facial, una tecnolog¨ªa cuya aplicaci¨®n ha levantado airadas quejas en la Academia. El reglamento establece excepciones leg¨ªtimas a su prohibici¨®n: estos sistemas solo se permitir¨¢n si as¨ª lo autoriza la UE o los Estados miembros, si se usan con ¡°fines de prevenci¨®n, detenci¨®n o investigaci¨®n de cr¨ªmenes graves o terrorismo¡± o si su aplicaci¨®n est¨¢ limitada a un tiempo determinado y luego se borra.
Los sistemas de puntuaciones de cr¨¦dito social, mediante los cuales se calcula la fiabilidad del individuo de acuerdo a una serie de variables, quedan tambi¨¦n proscritos. Las autoridades chinas aplican uno, cuyo funcionamiento se desconoce, que puede tener graves consecuencias sobre quienes pierdan puntos.
Igual que el RGPD exige a quienes quieran manipular los datos de un individuo que este d¨¦ su consentimiento, el reglamento de inteligencia artificial establece que hay que notificar al aludido cuando interact¨²e con un sistema de IA. A menos, dice la normativa, que eso sea ¡°obvio por las circunstancias y el contexto de uso¡±.
Vigilancia y sanciones
Asimismo, se especifica que se deber¨¢ supervisar los sistemas considerados de alto riesgo, una categor¨ªa que, aclara el texto, estar¨¢ en constante proceso de actualizaci¨®n. Adem¨¢s de las aplicaciones ya mencionadas, entran ahora mismo en esta definici¨®n los sistemas de IA dise?ados para decidir c¨®mo y d¨®nde asignar recursos en caso de emergencia, los usados para admitir o denegar solicitudes de acceso a instituciones educativas, para evaluar candidaturas en procesos de reclutamiento de personal, para calcular la solvencia crediticia de los individuos o para asistir a jueces, entre otros.
El reglamento establece tambi¨¦n la creaci¨®n de un ¡°Consejo Europeo de la Inteligencia Artificial¡±, cuya principal atribuci¨®n ser¨¢ decidir qu¨¦ aplicaciones pasan a ser consideradas de alto riesgo.
Las empresas que no cumplan con la normativa se pueden enfrentar a multas de hasta 20 millones de euros o el 4% de su facturaci¨®n, cifra que en el caso de las grandes tecnol¨®gicas puede ser muy abultada.
El principio del camino
La Secretar¨ªa de Estado de Digitalizaci¨®n e Inteligencia Artificial valora positivamente el reglamento. ¡°Es un gran paso adelante para que desde la Uni¨®n Europea dise?emos la nueva realidad digital¡±, se?alan fuentes del departamento que dirige Carme Artigas. ¡°Es una propuesta equilibrada, que proporciona un entorno de confianza y de garant¨ªas a la ciudadan¨ªa, pero a su vez sin limitar la capacidad de innovaci¨®n de una tecnolog¨ªa con tantas oportunidades como la IA¡±.
Borja Adsuara, consultor y experto en derecho digital, no est¨¢ de acuerdo en este ¨²ltimo punto. La intenci¨®n de Bruselas de tratar de prever cu¨¢l puede ser el desarrollo del conjunto de tecnolog¨ªas que llamamos IA, opina, encorsetar¨¢ la innovaci¨®n. ¡°Europa, desde Justiniano pasando por Napole¨®n, siempre ha tenido un problema: es un sistema de c¨®digo cerrado, todo lo que no est¨¢ expresamente permitido est¨¢ prohibido. Eso no es muy proclive a la innovaci¨®n, porque innovar es precisamente hacer lo que no est¨¢ previsto¡±, reflexiona. En Estados Unidos, en cambio, el m¨¦todo es el inverso: lo que no est¨¢ expresamente prohibido est¨¢ permitido. ¡°Por eso las grandes startups se gestan all¨ª¡±, a?ade.
Para este jurista, el reglamento es un buen punto de partida, aunque se pregunta si no tendr¨ªa m¨¢s sentido modificar las leyes ya existentes, desde el C¨®digo Penal a Ley de Procedimiento Administrativo, que crear una nueva para una tecnolog¨ªa particular. ¡°Lo que interesa de la tecnolog¨ªa son sus aplicaciones, en concreto los malos usos. El derecho est¨¢ para prevenir estos ¨²ltimos¡±, indica.
Una ausencia destacada
¡°Me ha decepcionado mucho que se hayan dejado fuera las armas letales aut¨®nomas¡±, destaca por su parte Ram¨®n L¨®pez de M¨¢ntaras, director del Instituto de Investigaci¨®n en Inteligencia Artificial del CSIC. ¡°El borrador habla de las aplicaciones de alto riesgo de la inteligencia artificial; no s¨¦ qu¨¦ puede tener m¨¢s riesgo que un arma que tome la decisi¨®n de matar de forma aut¨®noma¡±, abunda. El documento dice textualmente que ¡°esta regulaci¨®n no aplica a los sistemas de IA usados exclusivamente para el manejo de armas u otros prop¨®sitos militares¡±.
El profesor L¨®pez de Mantaras cree tambi¨¦n que el reglamento es un buen punto de partida para regular la IA, algo que considera necesario. ¡°Pero creo que ser¨¢ extremadamente dif¨ªcil cumplir con esta regulaci¨®n. En algunos casos por cuestiones t¨¦cnicas, como conseguir una transparencia en los datos y algoritmos que cumpla las exigencias, y tambi¨¦n por razones pr¨¢cticas, como el coste derivado de hacerlo¡±.
Hay m¨¢s elementos que van a hacer complicado que se cumpla la normativa. El borrador dice que los sistemas de alto riesgo tienen que asegurarse de usar datos que sean de alta calidad para que la inteligencia artificial haga lo que se supone que tiene que hacer, que no tenga sesgos. ¡°Eso est¨¢ muy bien, pero conseguir tener unas bases de datos de entrenamiento que sean relevantes, representativos y que no tenga errores es muy complejo¡±, explica L¨®pez de M¨¢ntaras.
Luego est¨¢n los sistemas que no son cerrados, los que est¨¢n continuamente aprendiendo. Por ejemplo, los coches aut¨®nomos. ¡°?C¨®mo asegurar que un sistema que, en el momento de lanzarlo al mercado, ten¨ªa bases de datos sin sesgos, bien montadas y controladas, no se desmadre posteriormente a medida que vaya aprendiendo?¡±, se pregunta.