Este hombre puede acabar con la tecnolog¨ªa de reconocimiento facial en Estados Unidos
Robert Williams fue detenido porque un algoritmo le confundi¨® con otro. Acaba de presentar una demanda para prohibir estos sistemas en Detroit. Si gana, el ejemplo puede cundir en el resto del pa¨ªs
Robert Julian-Borchak Williams fue detenido el 9 de enero de 2020 seg¨²n lleg¨® del trabajo a su casa en el barrio residencial de Farmington Hill, a las afueras de Detroit. Un coche patrulla par¨® con un frenazo tras su camioneta reci¨¦n aparcada, bloque¨¢ndole la salida. Dos agentes le preguntaron su nombre y, tras mostrarle una orden de arresto, le esposaron y se lo llevaron. Melissa, su mujer, asisti¨® a la escena desde la puerta de la vivienda con su hija peque?a en brazos, tratando de contener a la mayor para que no saliera del porche. Pas¨® la noche encerrado en un centro de detenci¨®n sin saber de qu¨¦ se le acusaba. Le soltaron 18 horas despu¨¦s: los dos detectives que le interrogaron comprobaron que Williams no se parec¨ªa a quien hab¨ªa robado unos relojes de lujo en una tienda del centro. Cuando le mostraron la foto del sospechoso, se la puso al lado de la cara y le dijo al agente: ¡°Este no soy yo. Espero que no piensen que todos los negros somos iguales¡±. Los dos polic¨ªas se miraron y luego uno le replic¨®: ¡°El ordenador dice que es usted¡±.
El ordenador fall¨®. El sistema de reconocimiento facial empleado por el Departamento de Polic¨ªa de Detroit (DPD) cruz¨® una imagen tomada por la c¨¢mara de seguridad del establecimiento con su base de datos. Salt¨® una coincidencia: la foto del carnet de conducir de Williams. Ambas personas son negras y corpulentas, pocos m¨¢s parecidos se pueden sacar. ¡°Pod¨ªan haber llevado la foto consigo, mirarla antes de detenerme e irse. No lo hicieron¡±, se lamenta en un v¨ªdeo difundido por la Uni¨®n Estadounidense de Libertades Civiles (ACLU).
Williams pidi¨® ayuda a esta organizaci¨®n para que su caso no quedara impune. Inmediatamente elevaron una queja a la polic¨ªa. Ante la falta de respuesta, la ACLU, junto con la la Iniciativa de Litigio de Derechos Civiles (CRLI) de la Universidad de Michigan, presentaron hace dos semanas una demanda contra el Departamento de Polic¨ªa de Detroit. No solo denuncian el arresto injusto que sufri¨® su cliente: reclaman tambi¨¦n que se proh¨ªba el uso de esta tecnolog¨ªa, que cruza de forma autom¨¢tica las im¨¢genes que toma de ciudadanos en lugares p¨²blicos con bases de datos de sospechosos. Si los tribunales les dan la raz¨®n podr¨ªa prender la chispa que acabe dinamitando los sistemas de reconocimiento facial en el resto del pa¨ªs.
El de Williams, que hizo p¨²blico The New York Times el pasado verano, es el primer caso conocido en EE UU de detenci¨®n irregular por el uso defectuoso de un algoritmo de reconocimiento facial. Desde entonces ha habido al menos dos m¨¢s, siempre con personas negras como protagonistas. Uno de ellos tambi¨¦n en Detroit y con el agravante de que al joven al que se detuvo por robar un m¨®vil, a diferencia del infractor real, tiene el cuerpo y hasta la cara llena de tatuajes, lo que hace todav¨ªa m¨¢s evidente el error. ¡°Por los indicios que tenemos, creemos que hay incontables casos similares en los que incluso sus abogados defensores no tienen ni idea de que esta tecnolog¨ªa se us¨® contra ellos¡±, explica por videollamada Deborah Won, una de las abogadas del equipo que asesora a Williams. Su cliente, de hecho, se enter¨® de manera fortuita de que fue un algoritmo quien orden¨® su detenci¨®n: si no llega a ser por el comentario del agente en la sala de interrogatorios, Williams hubiera cre¨ªdo sufrir un caso de mala praxis policial como tantos otros.
El ¡®efecto George Floyd¡¯
Estados Unidos vive un momento delicado en lo tocante a la cuesti¨®n racial. No es casualidad que la demanda del caso Williams se haya presentado coincidiendo con el juicio del polic¨ªa acusado de asesinar a George Floyd en Minneapolis en mayo del a?o pasado. S¨ª es fruto del azar que sucediera en plenas protestas contra el tiroteo de Daunte Wright, el chico al que mat¨® de un tiro una polic¨ªa que confundi¨® su arma con un T¨¢ser. ¡°Esperamos que el momentum ayude¡±, se?ala Won. ¡°El reconocimiento facial est¨¢ muy relacionado con la discriminaci¨®n racial. Williams me dijo que le impact¨® mucho el caso de George Floyd, y que de hecho le dio m¨¢s energ¨ªa todav¨ªa para asegurarse de que su caso sea conocido para que no vuelva a pasar¡±.
La jurista explica que hay estudios del Gobierno Federal que prueban que esta tecnolog¨ªa es 100 veces m¨¢s proclive a confundir individuos negros que blancos. ¡°Los algoritmos que hay detr¨¢s del reconocimiento facial se entrenaron con rostros de personas blancas, de ah¨ª que el ordenador sea mejor identificando a blancos¡±, a?ade Philip Mayor, abogado de ACLU que lleva tambi¨¦n el caso de Williams. ¡°Estos sistemas son mejores con hombres que con mujeres y aciertan m¨¢s en edades medias¡±.
La movilizaci¨®n social que provoc¨® el asesinato de George Floyd tuvo otra consecuencia sobre el reconocimiento facial. IBM, Amazon o Microsoft han congelado o suspendido definitivamente la venta de estos sistemas a los departamentos de polic¨ªa. Al no haber una regulaci¨®n federal que afecte a esta tecnolog¨ªa, son los Estados y las ciudades quienes a la pr¨¢ctica est¨¢n restringiendo su uso. San Francisco fue en 2019 la primera. Le siguieron Oakland y Berkeley. Portland (Oreg¨®n), Minneapolis (Minnessota) y seis ciudades de Massachussetts, entre las que se incluye Boston, tambi¨¦n las han prohibido o limitado. Este Estado es, de hecho, el primero en introducir una normativa que acota el uso de esta t¨¦cnica digital de vigilancia. California, por su parte, ha impuesto una moratoria de tres a?os, y el Estado de Nueva York estudia endurecer su uso por parte de la polic¨ªa.
¡°Estas herramientas son demasiado poderosas, y su potencial para provocar defectos graves, como sesgos demogr¨¢ficos o fenot¨ªpicos extremos, es claro¡±, dijo Joy Buolamwini, investigadora del MIT Media Lab, durante una comparecencia ante el Comit¨¦ de Supervisi¨®n y Reforma de la C¨¢mara de Representantes. La estadounidense de origen ghan¨¦s fund¨® la Algorithmic Justice League (AJL) en 2016 cuando se dio cuenta de que algunos sistemas de reconocimiento facial no detectaban su rostro a menos que se pusiera una careta blanca. ¡°Los algoritmos, como los virus, pueden propagar sesgos a escala masiva y a un ritmo acelerado¡±, dice en una charla Ted que acumula mill¨®n y medio de visualizaciones.
Amnist¨ªa Internacional, la Electronic Frontier Foundation (EFF) y la propia ACLU son algunas de las organizaciones m¨¢s activas en las peticiones para que se proh¨ªba el reconocimiento facial en EE UU. ¡°Es una tecnolog¨ªa muy peligrosa cuando no funciona, como ilustra el caso de Williams, pero tambi¨¦n cuando funciona, porque le da a los gobiernos una v¨ªa para vigilarnos de forma muy eficiente¡±, ilustra Mayor. En el caso de su ciudad, Detroit, hay c¨¢maras que apuntan a iglesias, mezquitas, centros m¨¦dicos o edificios de viviendas p¨²blicas. La situaci¨®n es la misma en buena parte del pa¨ªs. El reconocimiento facial se ha usado para identificar a manifestantes en ciudades como Baltimore. A nivel federal, se sabe que es empleado por el FBI, la agencia de lucha antidrogas (DEA), los servicios de fronteras e inmigraci¨®n y las fuerzas militares.
El oasis europeo
¡°Nunca imagin¨¦ que tendr¨ªa que explicarle a mis hijas por qu¨¦ detuvieron a su pap¨¢. ?C¨®mo se le explica a dos ni?as peque?as que un ordenador se equivoc¨®, pero que la polic¨ªa le hizo caso igualmente?¡±, escribi¨® Robert Williams en The Washington Post en junio, cuando su caso ya hab¨ªa salido a la luz. La intenci¨®n de Bruselas es que nadie tenga que llegar a ese extremo. El proyecto de reglamento europeo para la inteligencia artificial, presentado el pasado 21 de abril y pendiente de aprobaci¨®n por el Parlamento Europeo, proh¨ªbe los llamados ¡°sistemas de identificaci¨®n biom¨¦trica remota¡± con contadas excepciones, entre ellas usarlos con ¡°fines de prevenci¨®n, detenci¨®n o investigaci¨®n de cr¨ªmenes graves o terrorismo¡±.
Mois¨¦s Barrio, letrado del Consejo de Estado y experto en derecho digital, particip¨® en la elaboraci¨®n del Libro Blanco en el que se ha inspirado el reglamento. ¡°Propusimos un enfoque centrado en el riesgo: las aplicaciones que procesen cuestiones peligrosas deben tener m¨¢s controles que el resto¡±, explica. El reconocimiento facial entra en ese grupo, aunque no hay un consenso cerrado al respecto: pa¨ªses como Polonia o Hungr¨ªa, por ejemplo, son partidarios de su uso.
En Espa?a, un grupo de acad¨¦micos present¨® en marzo una carta al Gobierno solicitando la moratoria de esta tecnolog¨ªa. La fil¨®sofa Carissa V¨¦liz fue una de ellas. Desde su punto de vista, el problema no es tanto la discriminaci¨®n, que eventualmente se podr¨ªa corregir con una mejor base de datos, como la amenaza que supone contra el anonimato. ¡°El anonimato que trajeron consigo las grandes ciudades fue important¨ªsimo para el desarrollo de la literatura, de la pol¨ªtica, del pensamiento y de la propia democracia: hasta ese momento no se pod¨ªa protestar sin miedo a las represalias¡±, apunta la autora de Privacy is Power.
Incluso si el uso del reconocimiento facial por parte de la polic¨ªa no produjese errores como el de Robert Williams, opina V¨¦liz, otorgar esta tecnolog¨ªa a la polic¨ªa es darle mucho control a las fuerzas de seguridad. ¡°Y hay una relaci¨®n muy fuerte entre las sociedades de control y el autoritarismo¡±, sentencia.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.