El Parlamento Europeo pide la prohibici¨®n del uso policial de la inteligencia artificial
La Euroc¨¢mara considera que tecnolog¨ªas como el reconocimiento facial o los algoritmos de predicci¨®n de delitos pueden discriminar a amplios colectivos de la sociedad
El uso policial de herramientas apoyadas en la inteligencia artificial (IA), especialmente el reconocimiento facial o los algoritmos predictivos, puede generar grandes desigualdades entre los ciudadanos. Hay que ser especialmente vigilantes con estas tecnolog¨ªas, que deber¨¢n estar sujetas a estrictas regulaciones y en ¨²ltima instancia siempre deber¨¢n tener supervisi¨®n humana. As¨ª se establece en una resoluci¨®n aprobada ayer por el Parlamento Europeo, que pide tambi¨¦n la ¡°prohibici¨®n permanente del reconocimiento autom¨¢tico de individuos en espacios p¨²blicos¡±, dejando claro que los ciudadanos solo deber¨ªan ser vigilados cuando sean sospechosos de haber cometido un crimen.
La Euroc¨¢mara solicita, asimismo, que no se puedan usar bases de datos privadas de reconocimiento facial, y cita como ejemplo la de Clearview AI, una empresa estadounidense que ha analizado 10.000 millones de fotos para poder identificar a quienes salen en ellas. Tambi¨¦n pide transparencia en el desarrollo de cualquier algoritmo que pueda suponer una intromisi¨®n en la privacidad de los ciudadanos y que precisamente por eso se opte preferiblemente por el c¨®digo abierto.
La resoluci¨®n, aprobada con 377 votos a favor, 248 en contra y 62 abstenciones, no es vinculante, pero sienta un precedente importante de cara la EU Artificial Intelligence Act, la normativa europea sobre inteligencia artificial que se est¨¢ cocinando ahora mismo en Bruselas y que establecer¨¢ los usos permitidos de la IA con un enfoque centrado en los riesgos. ¡°Nos oponemos claramente a las herramientas predictivas de la polic¨ªa basadas en el uso de IA, as¨ª como en cualquier procesamiento de datos biom¨¦tricos que redunde en una vigilancia masiva. Esta es una tremenda victoria para todos los ciudadanos europeos¡±, dijo el eurodiputado b¨²lgaro Petar Vitanov tras la votaci¨®n.
Historic win for human rights! Yesterday, the EU Parliament made it clear: Artificial Intelligence must be at the service of people.
— Reclaim Your Face (@ReclaimYourFace) October 6, 2021
Members voted against biometric mass surveillance and discriminatory predictive policing!
Celebrate & #ReclaimYourFace!
?https://t.co/wZRwkcTTmB pic.twitter.com/gWqgIDzudb
El borrador de reglamento europeo de la IA, presentado en primavera, ya identificaba el reconocimiento facial y el uso de datos biom¨¦tricos como tecnolog¨ªas especialmente peligrosas. La resoluci¨®n de la Euroc¨¢mara aporta m¨¢s argumentos todav¨ªa para que esas tecnolog¨ªas sean sometidas a una regulaci¨®n especialmente estricta.
¡°Hemos trabajado durante meses con varios eurodiputados para que el Parlamento Europeo tomase una decisi¨®n en este sentido¡±, sostiene Ella Jakubowska, coordinadora del programa de biometr¨ªa facial de EDRI, una ONG basada en Bruselas que trabaja por la defensa de los derechos humanos en la era digital.
Los eurodiputados subrayan en la resoluci¨®n los problemas que implican los sesgos algor¨ªtmicos. As¨ª, advierten de que los sistemas de identificaci¨®n basados en IA identifican err¨®neamente a los grupos ¨¦tnicos minoritarios, a las personas LGBTI, a los mayores y a las mujeres en mayor proporci¨®n que al resto. Eso es ¡°especialmente preocupante¡± cuando ha de aplicarse la ley o en el control de fronteras, uno de los lugares donde m¨¢s se usan estas tecnolog¨ªas.
Tecnolog¨ªas controvertidas
Aplicado durante a?os en labores policiales en pa¨ªses como Estados Unidos, el reconocimiento facial est¨¢ siendo fuertemente cuestionado en los ¨²ltimos tiempos. Varias ciudades han prohibido o congelado su uso y grandes empresas como Amazon, IBM o Microsoft suspendieron la venta de este tipo de sistemas a la polic¨ªa a ra¨ªz de las protestas por la muerte de George Floyd, asfixiado por un agente en Minneapolis el 25 de mayo de 2020. El movimiento Black Lives Matters ha marcado un punto de inflexi¨®n en el cuestionamiento de esta tecnolog¨ªa, que suele equivocarse en contra de la poblaci¨®n negra.
En la C¨¢mara de Representantes hay registrada una iniciativa para regular estos sistemas a nivel federal, si bien hasta el momento no se ha traducido en nada concreto. La batalla legal iniciada en Detroit por Robert Williams, el primer caso conocido de detenci¨®n irregular en el pa¨ªs por el uso defectuoso de un algoritmo de reconocimiento facial, podr¨ªa desembocar en su prohibici¨®n por la v¨ªa judicial.
Los algoritmos de predicci¨®n policial, por su parte, est¨¢n muy implantados en Estados Unidos y China. En Europa est¨¢n tambi¨¦n presentes en pa¨ªses como Reino Unido, Alemania o Suiza. Su objetivo es determinar los puntos calientes del crimen a trav¨¦s del an¨¢lisis automatizado de datos para desplegar a las patrullas policiales de forma m¨¢s eficiente.
Estas herramientas tampoco escapan a la controversia. Uno de los efectos perversos de estos sistemas, ampliamente demostrado por la literatura cient¨ªfica, es que tienden a sobrecriminalizar los barrios menos pudientes, lo que en el caso de EE UU se suele traducir en zonas de poblaci¨®n mayoritariamente negra o latina: como los algoritmos se alimentar de datos sobre arrestos, normalmente reclaman m¨¢s vigilancia en las zonas donde se producen esas acciones, lo que a su vez provoca m¨¢s detenciones a¨²n. Los intentos de corregir este sesgo no han dado a d¨ªa de hoy resultados satisfactorios.
Puedes seguir a EL PA?S TECNOLOG?A en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
?Tienes una suscripci¨®n de empresa? Accede aqu¨ª para contratar m¨¢s cuentas.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.