?Qu¨¦ futuro queremos para el reconocimiento facial?
En esta ¨²ltima entrega explicamos en qu¨¦ momento tecnol¨®gico nos encontramos, c¨®mo estas herramientas est¨¢n siendo utilizadas por las fuerzas policiales y qu¨¦ leyes nos amparan
A mediados de este extra?o 2020, una noticia se colaba en medio del desconcierto y la pandemia. IBM, Amazon y Microsoft anunciaban de diferente manera pero con igual prop¨®sito, su intenci¨®n de dar un paso atr¨¢s en la comercializaci¨®n de sus sistemas de reconocimiento facial, especialmente la de aquellos destinados a las fuerzas de seguridad. El detonante fueron las noticias, que se han repetido en los ¨²ltimos meses, sobre abusos policiales en Estados Unidos y las consiguientes manifestaciones de repulsa en muchas ciudades.
Cuando tres de las mayores empresas tecnol¨®gicas del mundo se cuestionan y echan el freno a los propios sistemas de inteligencia artificial (IA) que ellos mismos desarrollan (con las consecuentes p¨¦rdidas econ¨®micas) surgen varias preguntas. ?En qu¨¦ medida el reconocimiento facial est¨¢ siendo usado por las fuerzas policiales sin que se garanticen los derechos de privacidad de los ciudadanos? ?Lo que sucede en EE UU puede equipararse a Europa? ?Y qu¨¦ pasa con las empresas? ?Qu¨¦ uso dan de los datos biom¨¦tricos que obtienen de sus usuarios, a veces sin ser conscientes de ello? ?Todo es malo en el reconocimiento facial, o no vemos su lado bueno? ?Qu¨¦ futuro nos espera si no le ponemos freno a algunas actuaciones?
En este cuarto y ¨²ltimo cap¨ªtulo de la serie de reconocimiento facial trataremos de entender en qu¨¦ momento nos encontramos, tanto a nivel tecnol¨®gico, como jur¨ªdico y a partir de aqu¨ª, trazar el posible futuro que podr¨ªamos conocer.
- ?Qu¨¦ uso del reconocimiento facial pueden realizar las fuerzas de seguridad en Europa?
Para empezar, debemos separar la forma de proceder de la polic¨ªa en pa¨ªses como en EE UU o China, del sistema europeo, al menos en la actualidad. Factores como la cultura, la legislaci¨®n o el sistema pol¨ªtico marcan las diferencias: "A nivel europeo nosotros somos mucho m¨¢s restrictivos, por los derechos que tienen las personas a su imagen. Realmente, las fuerzas y cuerpos de seguridad aqu¨ª en Espa?a, no hacen ese uso tan intensivo [de la vigilancia facial] como en otros pa¨ªses", seg¨²n el inspector Sergio Castro, jefe de Grupo de estudios fison¨®micos de la Comisar¨ªa General de Polic¨ªa Cient¨ªfica de la Polic¨ªa Nacional.
Esa limitaci¨®n en favor de la privacidad de la ciudadan¨ªa viene amparada por leyes europeas, como el Reglamento General de Protecci¨®n de Datos, pionero en un ¨¢rea a¨²n novedosa que a veces puede suscitar dudas a los propios juristas. Por ello, "han surgido otros grupos de trabajo para clarificar o dar soporte sobre cu¨¢l es la interpretaci¨®n que hay que hacer del reglamento. Y las autoridades de control de cada uno de los pa¨ªses han ido emitiendo gu¨ªas, as¨ª como el Comit¨¦ Europeo de protecci¨®n de datos (EDPB)", comenta Andr¨¦s Ruiz, abogado especializado en temas de tecnolog¨ªa, innovaci¨®n y privacidad en Ram¨®n y Cajal Abogados.
En la Polic¨ªa Nacional, las herramientas de reconocimiento facial no parecen, a primera vista, incre¨ªblemente sofisticadas, ni detectan con la precisi¨®n de 100% a un individuo. Pero tampoco se trata de eso. "Estas herramientas simplemente lo que hacen es ofrecer una puntuaci¨®n, un score entre dos fotograf¨ªas, para saber, en funci¨®n del algoritmo, cu¨¢nto se le parece. Cuanto m¨¢s alto es el score m¨¢s fiabilidad tiene, pero eso no garantiza que sea esa persona. Lo que ofrecen estas herramientas son candidatos potenciales a la fotograf¨ªa presentada, pero eso luego se tiene que demostrar, que validar". Aclara el inspector. Y esta no es una funci¨®n balad¨ª: si un agente tuviera que realizar esta comprobaci¨®n manual enfrentando esa foto a la de tres millones de im¨¢genes registradas, por ejemplo, ser¨ªa una tarea imposible.
Otra de las garant¨ªas de las restricciones de privacidad aplicadas en Espa?a es que, a diferencia de EE UU, por ejemplo, donde las bases de datos de la polic¨ªa pueden integrar incluso las fotos de los permisos de conducir de los ciudadanos, el sistema es mucho m¨¢s protector de los derechos del ciudadano. "Cualquier imagen no puede incluirse en la base de datos y hacer b¨²squedas sobre ellas, est¨¢n espec¨ªficamente dise?adas con personas que han cometido hechos delictivos", asegura Castro.
Por otro lado, y enfocado a diferente uso, las tecnolog¨ªas de comparaci¨®n facial uno a uno (fotograf¨ªa en vivo que debe corresponder con el pasaporte) ser¨¢n cada vez m¨¢s frecuentes en aeropuertos y empiezan a plantearse en Europa para controles fronterizos.
- ?Qu¨¦ base legal nos ampara en Europa?
Las herramientas autom¨¢ticas de comparaci¨®n facial son bastante recientes, y como suele ser habitual, al nacimiento de una nueva tecnolog¨ªa le sucede la regulaci¨®n normativa."Ahora mismo se encuentran bajo el amparo gen¨¦rico de la protecci¨®n de datos a nivel personal, pero no existe una regulaci¨®n normativa muy espec¨ªfica" explica Castro.
?Podr¨ªan grabarnos y usar nuestra imagen por una causa justificada? Ruiz distingue entre dos situaciones. Las fuerzas y cuerpos de seguridad pueden tener competencia para instalar videovigilancia, pero la base legal debe estar diferenciada cuando a estas c¨¢maras se le superponen unos sistemas de reconocimiento facial, ya que van m¨¢s all¨¢ de la grabaci¨®n. "En este caso, posiblemente deber¨ªamos acudir a las bases legales del art¨ªculo 9.2 del Reglamento para tratamiento de datos especialmente protegidos, en el que por ejemplo, podr¨ªamos hablar de inter¨¦s p¨²blico esencial al tratarse de una infraestructura cr¨ªtica, como un aeropuerto o una central nuclear, cuya normativa espec¨ªfica en su interior puede facultar el uso de estos sistemas".
El abogado especializado en temas de tecnolog¨ªa a?ade que uno de los problemas que plantea el reconocimiento facial es que puede estar pensado para que el tratamiento sea masivo y se use de forma indiscriminada en grupos de poblaci¨®n. "El reconocimiento facial incluso con consentimiento expreso est¨¢ muy cogido con pinzas, tal como han manifestado ya ciertas autoridades". El consentimiento expreso que deber¨ªa proporcionar el usuario (y m¨¢s teniendo en cuenta que son datos biom¨¦tricos, especialmente protegidos) es dif¨ªcil de justificar ante la normativa de protecci¨®n de datos cuando el usuario no es consciente de que una c¨¢mara le est¨¢ reconocimiento. La compa?¨ªa o entidad responsable deber¨ªa adem¨¢s informar al usuario del uso y tratamiento que har¨¢ de esos datos posteriormente.
- Fiabilidad: ?hasta d¨®nde pueden llegar?
Luis Baumela, Profesor del departamento de Inteligencia Artificial de la Universidad Polit¨¦cnica de Madrid (UPM) aclara que estos sistemas funcionan bien siempre y cuando exista una colaboraci¨®n por parte de la persona que se quiere reconocer. "Fuera de este contexto, la fiabilidad cae dram¨¢ticamente". Castro corrobora que generalmente cuando se cometen hechos delictivos las grabaciones suelen ser de baja calidad. Estas c¨¢maras de videovigilancia, pensadas para abarcar la mayor ¨¢rea posible y los movimientos de personal, no est¨¢n dise?adas para la identificaci¨®n, pero mantener un dispositivo 24 horas al d¨ªa grabando en alta calidad generar¨ªa una cantidad enorme de datos almacenados que a la mayor¨ªa de las empresas les ser¨ªa imposible almacenar. "En funci¨®n de la calidad de imagen que tengan esas grabaciones tratamos de llegar a una certeza mayor o menor."
Baumela ve el lado positivo a la limitaci¨®n de estos sistemas en la actualidad, consider¨¢ndolo incluso como una garant¨ªa de privacidad. "Yo hasta cierto punto me siento tranquilo de que una imagen m¨ªa tomada con una videoc¨¢mara con poca resoluci¨®n y vista desde un lateral sea dif¨ªcil de reconocer, pero entiendo que en el futuro la tecnolog¨ªa ir¨¢ mejorando y por eso es necesario que se desarrolle legislaci¨®n que nos proteja."
Otro obst¨¢culo es el controvertido asunto de los sesgos. Los modelos basados en redes de neuronas en los que se apoyan estos sistemas de reconocimiento facial se caracterizan por su falta de transparencia a la hora de tomar decisiones. Ese es otro reto al que debe hacer frente la investigaci¨®n de IA aplicada a este campo.
- El lado amable del reconocimiento facial
El an¨¢lisis del rostro humano en general tambi¨¦n puede tener aplicaciones muy beneficiosas para la sociedad, como comenta el profesor Baumela. Un ejemplo de ello son los sistemas que analizan los gestos y mejoran la interacci¨®n hombre-m¨¢quina, o los procedimientos de visi¨®n por computador que ayudan a la comunicaci¨®n con personas de movilidad reducida o sordomudas.
Adem¨¢s, hay que considerar que el uso de aplicaciones que utilicen reconocimiento o identificaci¨®n, en principio, no tienen por qu¨¦ suponer un riesgo, siempre y cuando se garantice que la informaci¨®n biom¨¦trica no salga de nuestro dispositivo o del ¨¢mbito privado.
Y por ¨²ltimo, estos sistemas han facilitado identificaciones en hechos delictivos importantes de personas buscadas por otros pa¨ªses, usando por ejemplo las herramientas autom¨¢ticas de las que dispone la Interpol, recuerda el inspector Castro.
- Veo, veo... ?el futuro?
Los tres expertos consultados coinciden en la necesidad de exigir una legislaci¨®n que garantice nuestros derechos. De lo contrario, como dice Baumela, "nuestra sociedad podr¨ªa evolucionar hacia un mundo orweliano, donde se nos controle, se viole nuestra privacidad". Los peligros a los que nos ver¨ªamos abocados se parecer¨ªan a un mal sue?o de ciencia ficci¨®n: desde empresas que identifican nuestro rostro cada vez que pasamos por un establecimiento para mostrarnos productos a medida, saber en todo momento d¨®nde estamos, qu¨¦ sentimos... "Ser¨ªa el final de la circulaci¨®n an¨®nima de las personas" a?ade Ruiz. Y todo esto sin olvidar claro, el uso que dictaduras y pa¨ªses represivos pudieran darle a estas herramientas en un futuro.
Sin embargo, no todo est¨¢ perdido, el profesor Baumela se muestra optimista. Aunque Europa se ha situado hasta ahora por detr¨¢s de EE UU y China en capacidad tecnol¨®gica, ve en este aparente retraso una gran oportunidad para la que empresas e investigadores puedan desmarcarse de la tendencia llevada hasta ahora y desarrollar un tipo de IA a la europea, mucho m¨¢s respetuosa con la privacidad y los derechos humanos, sin sesgos y transparente con el uso de los datos. "Y que no solamente tenga un fin comercial, sino una vertiente social. Ah¨ª podemos marcar la diferencia."
Puedes seguir a EL PA?S TECNOLOG?A RETINA en Facebook, Twitter, Instagram o suscribirte aqu¨ª a nuestra Newsletter.
Los m¨¦todos de reconocimiento: por cap¨ªtulos
En esta peque?a serie de 4 entregas, hemos repasado a trav¨¦s de varios v¨ªdeos, la historia, evoluci¨®n y funcionamiento de los sistemas de reconocimiento facial. Tambi¨¦n analizando c¨®mo han ido avanzando desde la vigilancia al control, penetrando poco a poco en nuestras vidas.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.