La clave es gobernar lo digital
El desaf¨ªo de nuestra sociedad y nuestras instituciones no es tanto la transformaci¨®n tecnol¨®gica sino c¨®mo se rige y regula la nueva esfera. Un escenario en el que la Uni¨®n Europea no tiene competencia
Hac¨ªa tiempo que se ven¨ªa hablando de una nueva legislaci¨®n europea sobre Inteligencia Artificial (IA), desde el 16 de julio de 2019 por lo menos, cuando Ursula von der Leyen fue elegida presidenta de la Comisi¨®n Europea. En tal fecha, Von der Leyen prometi¨® que, en un plazo de cien d¨ªas, propondr¨ªa una nueva legislaci¨®n europea sobre IA coherente con los valores ¨¦ticos europeos. En ese momento, coment¨¦ que las razones estrat¨¦gicas justificaban tal ambici¨®n, que, sin embargo, resultaba poco realista en los tiempos. La estrategia ya hab¨ªa puesto a trabajar al grupo de expertos en ¨¦tica de la IA (el HLEG, High-Level Expert Group on Artificial Intelligence, del que yo era miembro). Creado por la Comisi¨®n, el grupo acababa de publicar las directrices ¨¦ticas y pol¨ªticas para la IA en Europa. Estaba claro que el siguiente paso consist¨ªa en traducir esas directrices en instrumento legislativo. El trabajo ya realizado, sin embargo, hab¨ªa demostrado lo largo y laborioso que resultaba dicho proceso. Personalmente, yo ten¨ªa la convicci¨®n de que llevar¨ªa al menos un a?o traducir los principios en normas. Como tantos otros, no hab¨ªa previsto la pandemia. Hoy, casi dos a?os despu¨¦s, disponemos de un anteproyecto de propuesta de reglamentaci¨®n para la IA en la Uni¨®n Europea, el AI Act (AIA), presentado oficialmente el 21 de abril de 2021. Es el primero en el mundo.
En general, el borrador del texto ha sido valorado como un buen punto de partida para garantizar que el sector tecnol¨®gico de la IA se desarrolle de manera segura y aceptable en la UE, en beneficio de la econom¨ªa, la sociedad y el medio ambiente. No voy a detenerme en sus aspectos jur¨ªdicos, algunos de ellos destinados a evolucionar. Filos¨®ficamente, creo que los aspectos positivos fundamentales del AIA son muchos, aunque con algunas limitaciones.
En primer lugar, se trata de un reglamento, no de una directiva, por lo que debe ser aplicado, y no solo acogido, por todos los estados miembros de la UE, del mismo modo que el Reglamento General de Protecci¨®n de Datos (RGPD). Como en el caso del RGPD, el AIA tambi¨¦n asume la no territorialidad de la legislaci¨®n. Vivimos en un mundo post-Westfalia y el AIA afecta a cualquier actor, independientemente de d¨®nde se localice f¨ªsica o legalmente. Lo que importa es si se trata de un servicio, por ejemplo, un sistema autom¨¢tico de gesti¨®n de contrataci¨®n ofrecido por una empresa de Singapur a una empresa en Espa?a, que tiene un impacto en los ciudadanos europeos. De acuerdo con esta modalidad post-Westfalia, los gigantes de la IA tendr¨¢n que lidiar con la UE, no con los estados concretos, cuando tengan que demostrar que cumplen con la nueva legislaci¨®n. La UE se presenta como un interlocutor ¨²nico no solo en la gesti¨®n de datos personales (RGPD), sino ahora tambi¨¦n en la aplicaci¨®n de la IA. Es apropiado afirmar que la Uni¨®n hace la fuerza cuando lo que est¨¢ en cuesti¨®n es la soberan¨ªa digital. Ninguna empresa podr¨¢ permitirse ignorar un mercado que representa aproximadamente un sexto de la econom¨ªa mundial. Eso tambi¨¦n significa, sin embargo, que ser¨¢ m¨¢s dif¨ªcil para las empresas que tengan que aplicar el AIA el explicar por qu¨¦ no adoptan est¨¢ndares igualmente altos cuando operan en otros pa¨ªses. Adem¨¢s, el AIA podr¨ªa tener una influencia positiva, no en China y probablemente tampoco en los Estados Unidos, pero s¨ª de Canad¨¢ a Corea del Sur, de Jap¨®n a Gran Breta?a, de Israel a Singapur, colocando a la UE en una posici¨®n de ¡°liderazgo con el ejemplo¡± para una buena gobernanza de las tecnolog¨ªas de IA, como ya ha sucedido con el RGPD. Colaborar con estos pa¨ªses l¨ªderes en el sector de la IA ser¨¢ m¨¢s f¨¢cil gracias a un buen marco legislativo.
El AIA hereda otro factor positivo del RGPD: la protecci¨®n de la dignidad humana y los derechos humanos como objetivo final. Desafortunadamente, el AIA emplea una terminolog¨ªa anacr¨®nica al definir este enfoque human centric, es decir, que sit¨²a a la humanidad en el centro del desarrollo tecnol¨®gico. La idea es correcta: la tecnolog¨ªa debe estar al servicio de la humanidad. Pero en realidad tambi¨¦n debemos tener en cuenta el medio ambiente, mientras que el paso de lo human centric al antropocentrismo es corto, y sabemos cu¨¢nto ha sufrido el planeta debido a la obsesi¨®n de la humanidad por situarse siempre en el centro, como si todo tuviera que estar a nuestro servicio, Madre Naturaleza incluida. Afortunadamente, aunque la terminolog¨ªa est¨¦ anticuada, la visi¨®n de fondo es correcta: el AIA enfatiza el valor de la IA como tecnolog¨ªa verde, que puede ser de extraordinaria ayuda para la sostenibilidad y para combatir la contaminaci¨®n y el cambio clim¨¢tico. En esto, el AIA es complementario de las pol¨ªticas medioambientales europeas. Yo lo he definido como el proyecto verde y azul, del que la UE debe hacerse promotor por todo el mundo. En t¨¦rminos de planteamiento, el AIA aspira a eliminar o a mitigar los riesgos de la IA, para respaldar la confianza en estas innovadoras tecnolog¨ªas. La idea es que la ¨¦tica es positiva para el mercado, y no al contrario. Por esta misma raz¨®n, el AIA adopta expl¨ªcitamente las pautas ¨¦ticas propuestas por el HLEG. Y aqu¨ª merece la pena destacar otro aspecto positivo fundamental. El reglamento no hace ninguna concesi¨®n a especulaciones de ciencia ficci¨®n que tanto distraen por desgracia a la opini¨®n p¨²blica, e inicialmente tambi¨¦n lo hicieron con el trabajo del Parlamento Europeo y del HLEG. La IA se aborda como una tecnolog¨ªa para la resoluci¨®n de problemas y para la realizaci¨®n de tareas, no como una forma de vida extraterrestre. Por tanto, el AIA excluye cualquier posibilidad de atribuir a la IA una subjetividad jur¨ªdica relacionada con derechos o deberes. La responsabilidad de cada sistema de IA se asigna siempre con toda raz¨®n a la humanidad que lo dise?a, produce, comercializa y utiliza.
?Todo bien entonces? No exactamente. El borrador contiene tambi¨¦n algunas limitaciones conceptuales que merecen ser corregidas, adem¨¢s de las mejoras legales que puedan introducirse. Ve¨¢moslas.
El borrador resulta a veces ambiguo. Un caso importante es la definici¨®n de los sistemas de IA de alto riesgo, concepto clave de todo el reglamento, que combina expl¨ªcitamente dos sentidos que creo que ser¨ªa preferible distinguir. Por un lado, tenemos los sistemas de IA de cuyo correcto funcionamiento dependen cuestiones vitales, pensemos en un sistema automovil¨ªstico de conducci¨®n aut¨®noma: algo bueno que debe funcionar bien. Por otro lado, tenemos sistemas de IA de cuyo mal uso dependen cuestiones vitales: pensemos en el abuso de los sistemas biom¨¦tricos de vigilancia en tiempo real, prohibidos por el reglamento: algo malo que no debe usarse. Si no distingue entre ambos, terminaremos confundiendo la resiliencia obligada de los buenos sistemas de IA con la resistencia que debe ejercerse contra el mal uso de los sistemas de IA.
En otros casos, el borrador es vago, como cuando se habla de prohibir el uso de sistemas de IA destinados a distorsionar el comportamiento humano, con el riesgo de probables da?os f¨ªsicos o psicol¨®gicos. La intenci¨®n de fondo es aceptable, pero si este enfoque se aplicara con demasiada rigurosidad, se correr¨ªa el riesgo de prohibir muchos sistemas de IA no problem¨¢ticos.
Por ¨²ltimo, ciertas expectativas del borrador parecen adolecer de excesivo idealismo. Un ejemplo significativo son los est¨¢ndares de las bases de datos utilizadas para el adiestramiento de modelos de aprendizaje autom¨¢tico, que deber¨ªan ser, entre otras cosas, relevantes, representativas, libres de errores y completas. En realidad, se trata de requerimientos muy deseables pero que rara vez se satisfacen por completo, baste con pensar en las bases de datos de cualquier ministerio, por lo general incompletas e incorrectas. Por lo tanto, ser¨ªa preferible hablar de umbrales por debajo de los cuales el nivel de satisfacci¨®n de dichos est¨¢ndares es inaceptable.
El AIA ir¨¢ a sumarse a la RGPD y a soldarse con la Ley de Servicios Digitales y la Ley de Mercados Digitales que regular¨¢n las plataformas y servicios en l¨ªnea. Dentro de unos a?os, cuando se complete esta arquitectura legislativa, la UE habr¨¢ garantizado una infosfera en la que sus ciudadanos podr¨¢n vivir y operar de manera mejor y m¨¢s sostenible. Est¨¢ claro que el desaf¨ªo ya no es tanto la innovaci¨®n digital como la gobernanza de lo digital, y en este desaf¨ªo la UE no tiene competencia.
Luciano Floridi es profesor de Filosof¨ªa y ?tica de la Informaci¨®n y director del Digital Ethics Lab en la Universidad de Oxford.
Traducci¨®n de Carlos Gumpert
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.