As¨ª se gasta dinero p¨²blico en ¡°tecnolog¨ªas in¨²tiles¡± para lograr titulares
Reconocimiento facial, 'blockchain' y automatizaci¨®n llegan a las Administraciones sin justificaci¨®n de a qu¨¦ necesidad social responden y bajo riesgo de acentuar la precariedad, la discriminaci¨®n, la desigualdad y la fragmentaci¨®n social.
¡°Madrid anuncia? que lanza un piloto de pago biom¨¦trico¡±. ¡°Catalu?a desarrolla un sistema de identidad digital con blockchain¡±. Los sistemas p¨²blicos presumen de adoptar tecnolog¨ªas emergentes pero, ?han evaluado si tiene sentido, qu¨¦ riesgos supone usar dichas tecnolog¨ªas en determinados contextos o si funcionan siquiera?
¡°A la Administraci¨®n P¨²blica parece que se lo cuelan todo en temas tecnol¨®gicos¡±, afirma Gemma Galdon, presidenta de la Fundaci¨®n ?ticas, dedicada a la realizaci¨®n de estudios y actividades de concienciaci¨®n sobre c¨®mo impactan las nuevas tecnolog¨ªas en la sociedad. ¡°Cuando conoces la tecnolog¨ªa y ves ciertos anuncios en prensa, sorprende porque ves que est¨¢n tomando malas decisiones. Est¨¢n invirtiendo en tecnolog¨ªas que son, entre comillas, in¨²tiles, o no proporcionales en cuanto al abuso de derechos que suponen¡±, a?ade la tambi¨¦n fundadora de Eticas Research and Consulting. Se refiere, por ejemplo, a lo innecesario de recoger datos sensibles de la poblaci¨®n para subir a un autob¨²s.?
Galdon se?ala adem¨¢s que la tasa de error de los sistemas biom¨¦tricos [de reconocimiento facial y movimientos] en condiciones ¨®ptimas es superior al 30%, seg¨²n reconocen las empresas con las que trabaja. Eso en condiciones ¨®ptimas. En escenarios reales se ha demostrado que el porcentaje puede ser exponencialmente mayor. En Reino Unido, un software de reconocimiento facial utilizado por la Polic¨ªa Metropolitana proporcion¨® m¨¢s de un 98% de falsos positivos en las alertas generadas, como revel¨® en 2018 The Independent.
Fe de errores
La compa?¨ªa de medios de pago Mastercard ha recalcado tras la publicaci¨®n de este art¨ªculo, en el que se hac¨ªa referencia a la compa?¨ªa en una versi¨®n anterior, que?el proyecto de innovaci¨®n conjunto con la EMT de Madrid citado no le ha costado nada a la empresa p¨²blica ni a la Administraci¨®n. En contra de lo que se dice en el art¨ªculo, la empresa subraya que?fiabilidad del sistema que est¨¢ probando en este proyecto es casi del 100%, y que es un sistema que ha requerido pruebas durante un tiempo prolongado y suficiente para testar su validez.
Adem¨¢s, niega que este?sistema vaya "a provocar discriminaci¨®n, desigualdad y fragmentaci¨®n social" cuando los usuarios que hagan uso de esta tecnolog¨ªa lo har¨¢n de forma voluntaria y, en ning¨²n caso, se elimina ninguna otra forma de acceder al autob¨²s.
La c¨¢mara no recoge la imagen de nadie que no lo utilice, ni siquiera de los acompa?antes del que lo utiliza, por ejemplo. Solo se activa cuando te acercas para hacer el cruce de informaci¨®n de tu cara con la base de datos. El sistema no hace una foto en cada identificaci¨®n ni la guarda en ning¨²n lugar. Es m¨¢s, asegura Mastercard, "el sistema final no guardar¨¢, ni siquiera, la imagen inicial para registrarse sino un token de esa imagen, de forma que la base de datos no tendr¨¢ im¨¢genes".
¡°En definitiva, la biometr¨ªa no es segura y, adem¨¢s, es altamente pirateable y pirateada¡±, sostiene la experta. Cree que Espa?a deber¨ªa imitar a pa¨ªses como Holanda o ciudades como San Francisco, que est¨¢n incluyendo moratorias en la introducci¨®n de sistemas de reconocimiento facial. ¡°Los gobiernos m¨¢s avanzados en t¨¦rminos tecnol¨®gicos han decidido parar en lugar de correr, y si Espa?a quiere situarse como espacio relevante en tecnolog¨ªa debe hacerlo en esa l¨ªnea. Se trata de conocer primero los riesgos, de ser pioneros en hacerlo bien¡±, afirma.
Matar moscas a ca?onazos
En el caso de blockchain, Galdon cree que ¡°es una soluci¨®n en busca de problemas¡±. ¡°Sabemos que tenemos una forma, a trav¨¦s de la cadena de bloques -explica- de asegurar que la informaci¨®n que se introduce sea verificada de forma descentralizada por m¨²ltiples agentes. Genial, pero no sabemos para qu¨¦ sirve¡±. Argumenta, adem¨¢s, que ya existen tecnolog¨ªas consolidadas que son menos costosas de desarrollar.
En el caso de su aplicaci¨®n en el sistema identidad digital de Catalu?a, se?ala que lo que se necesita para identificar a personas son bases de datos actualizadas e interoperables, que se comuniquen con otras y que sean flexibles, que puedan cambiar todo el tiempo. ¡°Eso est¨¢ inventado ya, es muy barato y se puede hacer sin compartir los datos de las personas¡±, afirma. Crear una l¨¢mina de blockchain encima de todo eso -dice- ¡°es matar moscas a ca?onazos¡±.
Otro motivo por el que cuestiona el uso de esta tecnolog¨ªa es su falta de anonimidad. ¡°Para que se pueda verificar la informaci¨®n tiene que haber trazabilidad, se puede no saber qui¨¦n eres pero queda registrado todo lo que haces, por lo que para gestionar datos personales es una mala soluci¨®n¡±, comenta. Adem¨¢s ¨Cdice- no est¨¢ claro qui¨¦n va introducir los datos en el sistema: ?el ciudadano? ?El Estado? ?Xada Administraci¨®n? Teniendo en cuenta que estas no pueden ni deben compartir ciertos datos, no lo considera viable.
Tambi¨¦n cree que es un gasto innecesario de dinero y tiempo, ya que el desarrollo de un sistema de identidad digital basado en blockchain ¡°requiere de un gran presupuesto y un proceso de a?os¡±. ¡°Es una tecnolog¨ªa no madura que exigir¨¢ de tiempo para estar lista¡±, asegura. Gald¨®n sostiene que hay una manifiesta incomprensi¨®n de esta tecnolog¨ªa y que ¡°por eso siempre se habla de ella en t¨¦rminos muy gen¨¦ricos¡±. Cree que es interesante que haya gente pensando y estudiando c¨®mo puede ser ¨²til, pero que es una tarea para las universidades y para la empresa privada, no para la administraci¨®n p¨²blica.
A favor
Innovar por innovar no es innovar, es inventar, y eso est¨¢ muy bien para los cient¨ªficos e investigadores pero no vale para la Administraci¨®n P¨²blica"Lorena Jaume-Palas¨ª, fundadora de </span><a href="https://www.ethicaltech-society.org/">The Ethical Tech Society</a><span> y cofundadora de AlgorithmWatch
No lo ve as¨ª Montse Guardia, directora general del consorcio espa?ol de blockchain Alastria, con participaci¨®n p¨²blica y privada. ¡°La identidad digital basada en blockchain es un cambio de arquitectura digital importante que hace replantear los procesos de la administraci¨®n para simplificarlos, redefinirlos y automatizarlos¡±, asegura. El salto -dice- es conceptual: ¡°No se trata de tener un identificador personal sino una identidad con atributos a decisi¨®n de la persona y del uso que se hace¡±. Tambi¨¦n afirma que no es caro, ya que se usa software de c¨®digo abierto y el almacenamiento en nube es cada vez m¨¢s econ¨®mico.
En cuanto a qui¨¦n deber¨¢ introducir los datos en el sistema, comenta que en los foros de blockchain se apuesta por una soluci¨®n basada en la generaci¨®n de claves. Sobre el anonimato, asegura que en la cadena de bloques se almacena una representaci¨®n del dato -no el dato en s¨ª- en una f¨®rmula ya encriptada bajo una llave p¨²blica y una privada que, combinadas, dar¨ªan lugar a dicha representaci¨®n.
De ser esto as¨ª, si es el ciudadano quien decide los atributos, ?le podr¨¢ decir a Hacienda que no acceda a sus datos? ?Para qu¨¦ invierte la Administraci¨®n en una estructura descentralizada que elimina de la ecuaci¨®n a la autoridad central, que es precisamente la propia Administraci¨®n? ¡°Tendemos a asociar control y centralizaci¨®n pero no son lo mismo. Hacienda podr¨ªa disponer de una aplicaci¨®n descentralizada y seguir jugando un papel en el ecosistema descentralizado¡±, sostiene.
Colectivos invisibles
M¨¢s all¨¢ de blockchain, de la biometr¨ªa o de cualquier otra tecnolog¨ªa, la reflexi¨®n de fondo que hace Gald¨®n es que ¡°parece que no hay nadie al volante en la toma de este tipo de decisiones¡±. Lo dice tanto por la empresa privada como por la Administraci¨®n P¨²blica, con la gran diferencia de que la primera lo hace con dinero privado y la segunda con fondos p¨²blicos. ¡°No solo se est¨¢ tirando el dinero sino que se est¨¢n haciendo las cosas al rev¨¦s¡±, afirma. Se refiere a gobiernos que empiezan sus programas de inteligencia artificial con proyectos con colectivos vulnerables, en lugar de con otros menos problem¨¢ticos o con cuyos datos sea menos sensible trabajar.
Gald¨®n comenta el caso de pa¨ªses en Latinoam¨¦rica [que prefiere no concretar por conflicto de intereses] que tratan de mejorar la atenci¨®n a la poblaci¨®n mediante an¨¢lisis de datos para identificar personas que pueden ser m¨¢s susceptibles de tener ayudas p¨²blicas. Esto, que suena muy loable y que a priori deber¨ªa tener un impacto positivo, puede ser un arma de doble filo. ¡°En lugar de empezar con colectivos como los parados lo han hecho con ni?os con enfermedades raras y, si el algoritmo va mal o toma malas decisiones, los perjudicados ser¨¢n personas muy vulnerables y sin capacidades de defensa¡±, plantea.
Otro ejemplo: ¡°En Gran Breta?a los servicios sociales son digitales por defecto. ?El precio? La exclusi¨®n de personas analfabetas, disl¨¦xicas o con dificultades¡±. Cuando el algoritmo se equivoca -dice- caes en un pozo negro. ¡°Y no solo eso, el fraude tambi¨¦n va en aumento¡±. La experta cita un art¨ªculo en The Guardian que pone de relieve historias de personas afectadas y que advierte sobre el riesgo de que ciertos colectivos vulnerables sean olvidados a costa de la automatizaci¨®n del sistema de concesi¨®n de beneficios.
Ejemplos no faltan. The Verge revel¨® en 2018 c¨®mo un error de codificaci¨®n de un algoritmo de asignaci¨®n autom¨¢tica de recursos provoc¨® una reducci¨®n injustificada de la cobertura del sistema de salud de Arkansas (EE.UU) para pacientes con par¨¢lisis cerebral, a los que se les asignaron menos horas de cuidados de las que realmente les correspond¨ªa. De vuelta al reconocimiento facial, son conocidos los casos de discriminaci¨®n del sistema de pasaporte biom¨¦trico en Reino Unido hacia personas con cierto color de piel.
¡°?Vamos a condenar a ciertas personas a la invisibilidad, al no poder usar estas tecnolog¨ªas, al no ser reconocidas?¡±, cuestiona?Lorena Jaume-Palas¨ª, fundadora de The Ethical Tech Society y cofundadora de AlgorithmWatch. Incluso si la tecnolog¨ªa funcionase bien -a?ade- ello no garantiza la equidad ni que se usen de manera justa.
Pone como ejemplo el uso de sistemas de biometr¨ªa para aceptaci¨®n de visados en las fronteras en Grecia y Hungr¨ªa. ¡°Est¨¢n sometiendo a las personas que quieren solicitar un visado a una especie de pol¨ªgrafo, que es algo que no se ha hecho hasta ahora y que a nivel democr¨¢tico es altamente peligroso. Los pol¨ªgrafos se utilizan con acusados en situaciones de criminalidad, no con v¨ªctimas¡±, denuncia.
Sin justificaci¨®n social
Desde el punto de vista de an¨¢lisis jur¨ªdico, plantea la necesidad de preguntarnos si el uso de estas tecnolog¨ªas es l¨ªcito y qu¨¦ criterios de equidad est¨¢ cumpliendo. ?Va a crear m¨¢s cohesi¨®n social? ?Es justificable desde el punto de vista medioambiental? ?Crea m¨¢s pluralidad? ¡°Son las preguntas que la Administraci¨®n se deber¨ªa hacer y que no se hace. El debate se limita a la necesidad de desarrollar algoritmos que no discriminen a nivel individual pero incluso teni¨¦ndolos la cuesti¨®n es, ?para qu¨¦ los queremos?¡±.
La experta en ¨¦tica algor¨ªtmica argumenta que, cuando se usan tecnolog¨ªas de automatizaci¨®n, se crean est¨¢ndares y, en base a ellos, una arquitectura administrativa matem¨¢tica conforme a la cual se proporcionan servicios. Eso significa que quienes no est¨¦n dentro de esos est¨¢ndares se quedar¨¢n sin acceso, ¡°lo cual deriva en nuevas formas de precariado y de invisibilidad¡±. La Constituci¨®n Espa?ola -prosigue- dice que todos somos iguales ante la ley. ¡°Eso significa que tiene que facilitar a todos el acceso a los servicios y que este no puede llevar a la fragmentaci¨®n social¡±, a?ade.
Mensaje de fondo
El mensaje de fondo no es que la Administraci¨®n no deba innovar ni adoptar nuevas tecnolog¨ªas, todo lo contrario. Es su deber hacerlo, pero debe hacerlo bien: con las precauciones necesarias, evaluando previamente su posible impacto, siendo consciente de sus limitaciones, previniendo los problemas conocidos, fallando r¨¢pido, asegur¨¢ndose de su fiabilidad, exigiendo garant¨ªas a las empresas que las desarrollan y realizando su implementaci¨®n de forma paulatina y segura, con pilotos muy controlados.
¡°A nivel p¨²blico el problema es que hablamos de innovaci¨®n sin ponerle valor social detr¨¢s. Innovar por innovar no es innovar, es inventar, y eso est¨¢ muy bien para los cient¨ªficos e investigadores pero no vale para la Administraci¨®n P¨²blica. La innovaci¨®n en este marco tiene que basarse en una necesidad social y debe responder a ella¡±, sentencia Jaume-Palas¨ª. Galdon coincide: ¡°No todo vale en el nombre de la innovaci¨®n. Si vamos a automatizar debemos preguntarnos por qu¨¦, para qu¨¦, a qu¨¦ necesidad social responde¡±.
La fundadora de Eticas afirma que ¡°no hay ning¨²n partido en ning¨²n lugar del mundo con un programa tecnol¨®gico cre¨ªble; ni parlamento ni partido capaz de entender y de tener iniciativa en algo que est¨¢ marcando la vida de las personas de forma cotidiana cada vez m¨¢s clara¡±. Estamos -dice- ¡°en un nivel de desprotecci¨®n brutal¡±.
No hay nadie -se?ala- que lidere la comprensi¨®n del impacto pol¨ªtico y social de estas transformaciones. ¡°Falta una comprensi¨®n del impacto de la tecnolog¨ªa a todos los niveles, que todos los ministerios y secretar¨ªas de Estado analicen c¨®mo esta impacta en su sector, entender los riesgos y el papel de la pol¨ªtica en gestionar esa nueva realidad, y que haya un espacio legal transversal que permita abordar los retos compartidos. Eso no existe en ning¨²n lugar¡±, concluye.?
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.