?Aceptar¨ªa que le ¡®lean¡¯ la cara en cualquier momento?
Un equipo de investigaci¨®n de la UE identifica las aplicaciones de procesamiento facial que deber¨ªan prohibirse, limitarse y autorizarse
Advierte Felipe G¨®mez-Pallete, presidente de Calidad y Cultura Democr¨¢ticas, que ¡°la tecnolog¨ªa, una vez desarrollada, no hay quien la pare¡±. Y a?ade: ¡°La podemos regular, atemperar, pero llegamos tarde¡±. Es el caso de las tecnolog¨ªas de procesamiento facial, las que leen y analizan nuestros rostros con decenas de intenciones, desde comerciales o de seguridad hasta de ayuda a personas invidentes o con alzh¨¦imer. La Comisi¨®n Europea ha elaborado una propuesta de regulaci¨®n de la inteligencia artificial (AI Act) con el fin de superar esta brecha y adelantarse a aquellos avances que supongan un riesgo ¡°alto o inaceptable¡± para los derechos fundamentales sin lastrar su desarrollo. Para aportar la informaci¨®n cient¨ªfica necesaria, el proyecto europeo Humaint, del Centro Com¨²n de Investigaci¨®n, (JRC por sus siglas en ingl¨¦s), ha elaborado un exhaustivo informe en el que identifica 187 empresas que desarrollan tecnolog¨ªas de procesamiento facial, c¨®mo son, c¨®mo se usan y cu¨¢les deber¨ªan estar prohibidas, limitadas o permitidas: un sem¨¢foro orientativo para que, esta vez, se llegue a tiempo. El trabajo ha sido publicado en Scientific Reports.
Cualquier usuario estar¨¢ familiarizado con las tecnolog¨ªas que permiten el acceso a nuestro m¨®vil con reconocimiento facial o las que se aseguran en una frontera de que el titular de un pasaporte coincide con la imagen impresa en el mismo. Parecen pocas, pero son m¨¢s habituales de lo que parece. Humaint se ha centrado en 60 usos generalizados y de tecnolog¨ªas maduras ya asentadas o acreditadas que permiten desde conocer la reacci¨®n de un consumidor ante un producto a seguir el rastro de un desaparecido o localizar a un sospechoso de un crimen o detectar la somnolencia de un conductor. Pero tambi¨¦n las que facilitan identificar a alguien en un espacio y con qui¨¦n est¨¢ o catalogar a las personas por su etnia, edad o sexo o vigilar sus comportamientos en un examen o una reuni¨®n. Es necesario saber qu¨¦ se puede hacer con estas tecnolog¨ªas y qu¨¦ utilidades deben prohibirse o limitarse.
Para facilitar la regulaci¨®n, el grupo de investigaci¨®n del JRC ha elaborado un sem¨¢foro de cuatro colores que corresponden a los niveles de riesgo definidos por el AI Act: negro para los usos que deber¨ªan prohibirse, rojo para los que entra?an riesgos y deben someterse a requisitos estrictos, amarillo para los que deben incluir advertencias a los usuarios y verdes para aquellas con riesgo m¨ªnimo. Algunas utilidades rozan los l¨ªmites de lo permisible y comparten colores en funci¨®n de c¨®mo se implementen.
Isabelle Hupont, coautora de la investigaci¨®n, aclara que hay tambi¨¦n que distinguir entre procesamiento facial y utilizar la biometr¨ªa para identificar personas: ¡°Podemos analizar el rostro, sus expresiones, sin identificar a la persona. Esto se utiliza mucho en t¨¦cnicas de mercado para ver la reacci¨®n ante un producto o un anuncio. Tambi¨¦n se puede ver si, en una situaci¨®n de pandemia, las personas llevan mascarilla, pero sin identificarlas¡±
Alto riesgo. Entre las aplicaciones negras y rojas (prohibidas o de alto riesgo) se encuentran las de seguimiento con c¨¢maras personales, drones o robots o los reconocimientos faciales sin restricciones, la b¨²squeda injustificada de personas o su seguimiento, la catalogaci¨®n a trav¨¦s de im¨¢genes personales, la identificaci¨®n de clientes para darles un trato especial o la localizaci¨®n de usuarios de redes sociales y contactos.
¡°Es importante la proporcionalidad, porque se pueden utilizar para determinados casos, como amenazas terroristas o b¨²squeda de desaparecidos, delincuentes peligrosos y personas reclamadas por la justicia¡±, aclara Song¨¹l Tolan, tambi¨¦n coautora de la investigaci¨®n.
En este sentido, Emilia G¨®mez, coordinadora del proyecto Humaint, se?ala c¨®mo el uso de reconocimiento facial para el control de acceso puede entra?ar riesgos que var¨ªan, por ejemplo, si se cuenta o no con la autorizaci¨®n previa del usuario.
Transparentes. Entre las aplicaciones catalogadas como amarillas, las que exigen transparencia o informaci¨®n de su uso a las personas, se encuentran las de an¨¢lisis demogr¨¢ficos, detecci¨®n de caracter¨ªsticas personales (sexo o rango de edad, por ejemplo), sonrisas, personalizaci¨®n de anuncios, medida de la satisfacci¨®n de clientes o la experiencia emocional de un videojuego.
En este grupo, seg¨²n detalla Hupont, entrar¨ªan los deepfakes (montajes audiovisuales hiperrealistas) o los chatbots, interlocutores artificiales. En ambos casos, seg¨²n la investigadora, ¡°debe decirse claramente que es una imagen creada por inteligencia artificial o que no hay un humano conversando¡±.
Permitidas. Los usos que suponen un riesgo bajo son los de accesos en fronteras, autentificaci¨®n bancaria o para tr¨¢mites oficiales, desbloqueo de dispositivos, protecci¨®n perimetral, interacci¨®n emocional art¨ªstica, control de pandemias y aforos, emparejamiento de una imagen real con un retrato robot o aquellas que supongan la participaci¨®n consentida y voluntaria del usuario.
De nuevo, las l¨ªneas no son claras. Hay sistemas que permiten a un invidente saber qui¨¦nes est¨¢n con ¨¦l y la posici¨®n que ocupan. U otras que permiten a un paciente de alzh¨¦imer reconstruir su d¨ªa, con qui¨¦n ha estado, para minimizar los fallos de memoria. Tambi¨¦n a los autistas les puede facilitar la mejora en las capacidades emocionales. Pero esas mismas aplicaciones, con un uso distinto a aquel para el que han sido dise?adas, pueden pasar a rojas, a peligrosas y limitables. Ha sido el caso de los programas pensados para favorecer la motivaci¨®n del alumnado en funci¨®n de sus reacciones y que se usaron para el control y vigilancia durante ex¨¢menes y clases a trav¨¦s de internet.
Hay muchos usos que ayudan a las empresas o a la gente, que mejoran la vida. Hay que mostrarlos tambi¨¦n porque los avances en esta tecnolog¨ªa no son siempre negativosSong¨¹l Tolan, coautora de la investigaci¨®n del JRC
¡°Hay muchos usos que ayudan a las empresas o a la gente, que mejoran la vida. Hay que mostrarlos tambi¨¦n porque los avances en esta tecnolog¨ªa no son siempre negativos. Estos hay que regularlos, pero tambi¨¦n apoyar el desarrollo de estos sistemas¡±, comenta Tolan.
La propuesta europea para evitar estas zonas de colores difuminados es que todas las aplicaciones de procesamiento facial de alto riesgo cuenten con una autorizaci¨®n previa, con un sello que garantice una serie de requerimientos que resume Emilia G¨®mez: ¡°Disponer de un sistema de gesti¨®n de riesgos, transparencia y comunicaci¨®n, documentaci¨®n t¨¦cnica y registros, adecuada gobernanza de los datos, vigilancia humana, precisi¨®n, solidez y ciberseguridad¡±.
La transparencia se refiere a la claridad de todo el sistema desde su gestaci¨®n hasta su implantaci¨®n para comprobar intenciones, usos, sesgos o disfunciones, que sean evaluables y se sometan a seguimiento; s¨®lidos y seguros implica que no sean manipulables o susceptibles de fallos; y robustos, que sean eficaces ante ciberataques. En este sentido, Hupont se?ala c¨®mo la incorporaci¨®n intencionada de un elemento que impida el reconocimiento (conocido como patr¨®n adversarial) puede impedir una identificaci¨®n, por ejemplo, de una se?al de tr¨¢fico por parte de un veh¨ªculo con un sistema de reconocimiento por imagen.
Tambi¨¦n se?ala la investigadora que el principio de vigilancia humana propuesto es que haya, para reconocimiento facial, un m¨ªnimo de dos personas detr¨¢s de cada sistema y G¨®mez a?ade que puede obligarse a que el usuario de la aplicaci¨®n est¨¦ siempre identificado y autentificado.
Tres modelos
Estos ser¨ªan los pilares b¨¢sicos de la propuesta de regulaci¨®n para las tecnolog¨ªas de procesamiento facial, pero Song¨¹l Tolan advierte que no se puede garantizar al 100% un uso adecuado. Para ello, Emilia G¨®mez a?ade que tendr¨¢ que haber legislaciones complementarias sobre la responsabilidad de las deficiencias, que los ciudadanos denuncien cualquier situaci¨®n de abuso o discriminaci¨®n que se genere a partir de estas tecnolog¨ªas y que la justicia se adapte a esta realidad en la que Europa es vanguardia en cuanto a regulaci¨®n, aunque no en cuanto a desarrollo.
En este sentido, la investigaci¨®n detalla c¨®mo es Estados Unidos el pa¨ªs a la cabeza de la creaci¨®n de aplicaciones de procesamiento facial, con un gran peso de las grandes compa?¨ªas privadas. Europa, que se sit¨²a en segunda posici¨®n, presenta un ecosistema m¨¢s vinculado a peque?as y medianas empresas mientras China, que ocupa el tercer lugar, cuenta con un panorama singular concentrado en pocas grandes empresas vinculadas al Gobierno.
Esta radiograf¨ªa es fundamental porque la clave est¨¢ en la titularidad de las bases de datos. A mayor ¡°materia prima¡±, como define Hupont a la informaci¨®n, mayor capacidad. ¡°La base de datos privada m¨¢s peque?a de una gran compa?¨ªa es 12 veces mayor que la mayor base de datos p¨²blica. Y la tendencia es a no compartirlos¡±, advierte. Esta circunstancia es un lastre para el desarrollo de tecnolog¨ªas eficaces por parte de la peque?a y mediana empresa sometidas a la gobernanza que propugna Europa, la cual se complementa con una apuesta por un Mercado ?nico de Datos en Europa
Puedes escribirnos a rlimon@elpais.es, seguir a EL PA?S TECNOLOG?A en Facebook y Twitter y apuntarte aqu¨ª para recibir nuestra newsletter semanal
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.