Los miedos de los expertos sobre el nuevo sistema de reconocimiento facial de la polic¨ªa espa?ola: vigilancia masiva, p¨¦rdida de anonimato y borrado de datos
Interior no disipa las dudas sobre los aspectos oscuros de la implantaci¨®n de una herramienta llamada a revolucionar las labores policiales, que suscita dudas en torno a su transparencia, proporcionalidad y mecanismos de gobernanza
La Polic¨ªa Nacional y la Guardia Civil empezar¨¢ este a?o a usar un sistema autom¨¢tico de reconocimiento facial en sus investigaciones, tal y como adelant¨® EL PA?S. Se trata de ABIS, una herramienta que emplea algoritmos de inteligencia artificial para determinar en pocos segundos si en una imagen cualquiera figura un rostro del que se tengan registros (en este caso, de personas con ficha policial). La tecnolog¨ªa ya est¨¢ lista; solo falta completar la integraci¨®n de la base de datos con la que se empezar¨¢ a operar, seg¨²n fuentes del Ministerio de Interior. En cuanto acabe este proceso, lo que se prev¨¦ que suceda en la primera mitad de 2023, se podr¨¢ empezar a utilizar este programa inform¨¢tico, que ha sido desarrollado por la empresa militar francesa Thales.
Pero su aplicaci¨®n presenta varios interrogantes, especialmente relacionados con la transparencia y los mecanismos de control exigibles a herramientas que trabajan con datos biom¨¦tricos. La propia Agencia Espa?ola de Protecci¨®n de Datos (AEPD) lleva desde septiembre estudiando su encaje en el entramado legislativo, y deber¨¢ determinar si vulnera o no alg¨²n derecho.
Este peri¨®dico ha preguntado a Interior sobre los puntos oscuros o poco claros de ABIS, detectados con la ayuda de varios expertos, entre los que se encuentran dudas sobre su transparencia, la forma de compartir y gestionar las bases de datos o c¨®mo se garantizar¨¢ un uso proporcional del sistema. El Ministerio ha rehusado aportar informaci¨®n adicional clave para dispar esas dudas. Estas son las cuestiones que m¨¢s preocupan a los ingenieros, analistas y activistas consultados.
1. La sombra de la vigilancia masiva
El uso policial de tecnolog¨ªas autom¨¢ticas de reconocimiento facial es delicado porque estas permiten identificar inequ¨ªvocamente a los individuos. El sistema es capaz de detectar los rostros humanos en im¨¢genes digitalizadas, ya procedan de un m¨®vil o de c¨¢maras de seguridad, y de extraer un patr¨®n ¨²nico e inconfundible de los rasgos de cada persona, igual que sucede con las huellas dactilares o el ADN. Aunque hay una diferencia importante: mientras que en los dos ¨²ltimos casos hace falta establecer contacto f¨ªsico con el afectado (para extraerle las huellas o una muestra de saliva), con el reconocimiento facial se puede hacer todo a distancia.
Eso lo convierte en una tecnolog¨ªa perfecta para la vigilancia masiva. Pek¨ªn lo sabe desde hace a?os. Las calles de las grandes ciudades chinas est¨¢n repletas de c¨¢maras dotadas de estos sistemas. Las autoridades pueden localizar en minutos a cualquier ciudadano buscando su rostro en tiempo real. No hay escapatoria posible.
La UE proh¨ªbe usar reconocimiento facial en tiempo real en espacios p¨²blicos. Interior descarta por completo usar ABIS para labores de vigilancia en vez de para investigaciones. Sin embargo, el Ministerio no aclara c¨®mo ni qui¨¦n va a controlar c¨®mo se usa la herramienta. ¡°Necesitamos saber cu¨¢ntas veces se va a utilizar el sistema: ?solo para casos de especial gravedad o para cualquier investigaci¨®n? Si se generaliza su uso, se puede convertir en una herramienta de vigilancia masiva casi sin querer¡±, opina Carmela Troncoso, profesora de la Escuela Polit¨¦cnica Federal de Lausana (Suiza) y autora del protocolo de rastreo seguro usado en las aplicaciones de rastreo de contagios de la covid.
2. Anonimato y control algor¨ªtmico
La experta tiene dudas tambi¨¦n sobre el anonimato que promete Thales respecto a la gesti¨®n de los datos biom¨¦tricos de ABIS. ¡°La informaci¨®n almacenada se fundamenta en datos alfanum¨¦ricos que imposibilitan la identificaci¨®n del propietario de sus huellas¡±, explica la compa?¨ªa francesa. El objetivo es que si alguien roba esa base de datos no pueda asociar los rostros ah¨ª guardados con las identidades de los mismos.
¡°Esto es un poco dudoso. No porque las representaciones sean alfanum¨¦ricas significa que no se puedan reconstruir, porque hay evidencia de lo contrario: se pueden reconstruir im¨¢genes a partir de los modelos. La pregunta es qu¨¦ estudios se han hecho para fundamentar estas declaraciones¡±, abunda Troncoso.
Respecto al funcionamiento del algoritmo desarrollado por Thales, tanto la empresa como Interior aseguran que ¡°ha pasado el Test de Vendedores de NIST¡±, una compa?¨ªa independiente de ¨¢mbito no comercial. ¡°Eso es como no decir nada¡±, replica Troncoso. ¡°Tienen un baremo, pero no dicen si eso es bueno, malo o regular. ?Cu¨¢l es la puntuaci¨®n del algoritmo en ese test? ?Es la adecuada para el caso de uso propuesto? ?Qui¨¦n se va a ocupar de comprobar que lo siga siendo con el paso del tiempo?¡±. Preguntado por este diario, Interior no ha respondido a estas cuestiones.
3. Entrar y salir de la base de datos
La otra gran preocupaci¨®n que rodea el uso de esta tecnolog¨ªa es a qui¨¦n se le aplicar¨¢. Seg¨²n cont¨® Interior a EL PA?S, la base de datos contra la que se contrastar¨¢n las im¨¢genes que se quieran examinar tiene unos cinco millones de rese?as fotogr¨¢ficas faciales de detenidos y sospechosos que ya estaban fichados por la Polic¨ªa Nacional, la Guardia Civil y otros cuerpos auton¨®micos.
?Durante cu¨¢nto tiempo queda registrado un sospechoso en la base de datos? ?Qu¨¦ sucede cuando un sospechoso deja de serlo, por ejemplo, por ser declarado inocente en un tribunal? ?Se le elimina de la base de datos o permanece en ella? El Ministerio ha preferido no responder tampoco a estas preguntas. ¡°Limpiar estas bases de datos va a ser un problema. Hace falta tenerlas actualizadas mediante intercambio con las bases de datos de otras instituciones envueltas en el proceso¡±, explica Lorena Jaume-Palas¨ª, experta en ¨¦tica y filosof¨ªa del Derecho aplicadas a la tecnolog¨ªa y asesora del Gobierno de Espa?a y del Parlamento Europeo para cuestiones relacionadas con la inteligencia artificial. Dicho de otro modo: el Ministerio de Interior deber¨ªa estar coordinado con el de Justicia e intercambiar informaci¨®n, algo que no es la norma ni en este ni en otros pa¨ªses de nuestro entorno. ¡°Aqu¨ª hay al menos dos problemas: por un lado, no tienes la infraestructura necesaria para poder desplegar el sistema a nivel nacional e internacional, y por otro, tienes un problema de enforcement entre instituciones que no cooperan¡±, a?ade la investigadora.
Permanecer en esa base de datos significa poder ser identificado como sospechoso en cualquier crimen. Porque los algoritmos fallan, y los agentes que examinan los candidatos que aporta ABIS en una b¨²squeda pueden equivocarse tambi¨¦n.
4. Con qui¨¦n se comparten los datos
Interior tiene intenci¨®n de compartir los datos biom¨¦tricos faciales que almacena con sus socios europeos. ¡°El sistema ABIS de Espa?a puede conectarse con bases de datos comunitarias, como Eurodac, EU-Lisa o VIS¡±, explican fuentes de Thales. Seg¨²n asegur¨® el Ministerio a este peri¨®dico, las bases de datos que maneje la polic¨ªa estar¨¢n totalmente separadas de las civiles (por ejemplo, las que contienen las fotos del DNI). ¡°Pero si el sistema ABIS se integra en EU-Lisa, lo har¨¢ con los solicitantes de asilo, que no han delinquido ni son criminales¡±, se?ala Javier S¨¢nchez Monedero, investigador Beatriz Galindo en Inteligencia Artificial del departamento de Inform¨¢tica y An¨¢lisis Num¨¦rico de la Universidad de C¨®rdoba.
La reciente reforma de Eurodac, la base de datos europea de huellas dactilares para identificar a los solicitantes de asilo y a los irregulares que cruzan la frontera, elimina la necesidad de tener orden judicial para que la polic¨ªa pueda hacer una consulta. Si se guardan los registros faciales recogidos por las fuerzas de seguridad en esa misma base de datos, se podr¨¢ mirar autom¨¢ticamente sin pasar por el juez. ¡°Es importante entender cu¨¢les son los l¨ªmites y casu¨ªsticas del manejo de datos. Nuestra experiencia previa es que, una vez echan a andar estos sistemas, no paran de crecer¡±, a?ade.
5. ?Por qu¨¦ recoger datos biom¨¦tricos?
La pregunta que se hacen muchos expertos es por qu¨¦ necesitamos esta herramienta. ?Se ha estudiado que los beneficios potenciales de la implantaci¨®n de este sistema superar¨¢n a los posibles problemas que genere? Interior asegura que ABIS facilitar¨¢ mucho el trabajo de la polic¨ªa. Ser¨¢ capaz de identificar r¨¢pidamente a sospechosos en im¨¢genes de la escena del crimen que, de otro modo, quiz¨¢s no se podr¨ªan localizar.
Pero implantar un sistema autom¨¢tico de reconocimiento facial es m¨¢s que eso. ¡°No vas a hacer el proceso m¨¢s eficiente, sino que vas a cambiar el proceso en s¨ª¡±, resume Jaume-Palas¨ª. ¡°Har¨¢n falta buenos servidores, copias de seguridad, un mont¨®n de energ¨ªa y reentrenar a los profesionales que trabajan con estos sistemas en la polic¨ªa, entre otros. Son sistemas, adem¨¢s, que no pueden funcionar bien porque la idea de fondo, la metodolog¨ªa en s¨ª, es mala. Identificar a personas en base a cualquier categor¨ªa biom¨¦trica siempre implica fallos, es necesario utilizar otros m¨¦todos y evaluar otros aspectos¡±.
¡°No hay un conjunto de algoritmos capaz de abarcar la multidimensionalidad necesar¨ªa para incluir todos los par¨¢metros necesarios para identificar a alguien¡±, prosigue la experta en ¨¦tica digital. ¡°El proceso de identificaci¨®n de una persona a partir de sus datos biom¨¦tricos es un proceso ya de por s¨ª problem¨¢tico, basado en ideas eug¨¦nicas. El color de la piel, por ejemplo, es un continuo, no puedes dar un n¨²mero concreto de categor¨ªas. Eso, a nivel t¨¦cnico, es un problema, porque los sistemas necesitan acotar las variables. Y esta regla se aplica a gran cantidad de rasgos faciales, como la apertura de ojos y boca, tama?o y forma de la nariz, etc¨¦tera¡±, explica.
Cuanta m¨¢s informaci¨®n delicada se acumule, mayor probabilidad de que se haga un mal uso de ella. ¡°Creemos que realmente no hace falta recoger datos biom¨¦tricos, ya que atenta contra derechos fundamentales y supone una violaci¨®n de la privacidad¡±, sostiene Youssef M. Ouled, coordinador de AlgoRace, un colectivo que investiga las consecuencias del uso racista de la inteligencia artificial. ¡°Hay un enorme vac¨ªo de datos sobre estos sistemas, que no se auditan. Apuestan por la securitizaci¨®n, van en direcci¨®n contraria a lo que la sociedad civil est¨¢ demandando. Y tienen que ver con la obsesi¨®n del Estado de tener muchos datos sobre nosotros sin que sepamos muy bien qu¨¦ van a hacer con ellos¡±, abunda.
¡°Esta tecnolog¨ªa tiene un potencial enorme para ser algo peligroso, y no sabemos cu¨¢l es su potencial real para ser beneficioso¡±, zanja Troncoso. ¡°No tenemos ninguna garant¨ªa de que no vaya a tener malas consecuencias. Se nos justifica su uso en aras de la eficiencia, pero ?qu¨¦ o cu¨¢nto vamos a ganar? ?Tenemos alg¨²n tipo de evidencia al respecto? Estamos hablando de implantar una tecnolog¨ªa que aplica a todos los espa?oles, de la que no puedes decidir no participar y con la que tampoco sabemos si ganamos o perdemos¡±.
Puedes seguir a EL PA?S TECNOLOG?A en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.