C¨®mo lograr que el reconocimiento facial no sea racista, machista ni torpe, el gran desaf¨ªo del dise?o para 2019
Virales como #10yearschallenge podr¨ªan entrenar a las m¨¢quinas para identificarnos mejor, pero antes de contribuir deber¨ªamos hacernos algunas preguntas
Miles de usuarios de todo el mundo han participado en los ¨²ltimos d¨ªas en el #10yearschallenge. Incluso personalidades como Madonna, Alejandro Sanz o Nicky Minaj se han sumado a este reto viral que consiste en compartir en las redes sociales una fotograf¨ªa de hace una d¨¦cada junto a una actual. ?El objetivo? Comprobar c¨®mo se ha cambiado f¨ªsicamente en los ¨²ltimos 10 a?os. Este desaf¨ªo a primera vista es solo un juego. Pero ya hay quien se ha planteado si se trata de una estrategia de las compa?¨ªas como Facebook para recabar m¨¢s datos sobre los usuarios y entrenar a sus sistemas de reconocimiento facial.
Hasta hace unos a?os el escaneo e identificaci¨®n de rostros era solo posible en las pel¨ªculas de esp¨ªas o en distop¨ªas como Minority Report (Steven Spielberg, 2002). Ahora esta tecnolog¨ªa se ha colado en nuestras vidas hasta el punto de que muchos la usan a diario para desbloquear su smartphone, y en la pantalla gigante de Piccadilly Circus, en Londres, se aplica para conocer la edad y el g¨¦nero de los peatones cercanos y personalizar as¨ª los anuncios que muestra. M¨¢s lejos ha llegado China, donde ya se aplica para pagar en restaurantes o identificar a sospechosos de haber cometido un delit, entre otros usos.
Problema: estos sistemas a¨²n fallan m¨¢s que una escopeta de feria, con todas las implicaciones que eso tiene. Y es este justamente uno de los grandes retos del dise?o para 2019 y en adelante, pues uno de sus roles m¨¢s importantes es interpretar los avances de la tecnolog¨ªa para asegurarnos de que nos afectan de forma positiva y no de manera negativa. En este caso, encontrar el modo de perfeccionar estos sistemas de reconocimiento facial, atendiendo a los dilemas ¨¦ticos, los sesgos y las dificultades t¨¦cnicas que las primeras pruebas han puesto de manifiesto, y que vaticinan serios riesgos si no dise?an de forma inteligente y sensible.
Maquillaje, peluquer¨ªa o gafas de sol para enga?ar al sistema
El periodista de Forbes Thomas Brewster, especializado en ciberseguridad, prob¨® que una cara impresa en 3D es capaz de desbloquear la mayor¨ªa de terminales con reconocimiento facial en el mercado. Y tambi¨¦n hay quienes demuestran que se puede pasar inadvertido ante este tipo de sistemas con maquillaje y peluquer¨ªa.
El reconocimiento facial de Amazon confundi¨® en 2018 a 28 congresistas con sospechosos de la polic¨ªa, lo que llev¨® a la Uni¨®n Estadounidense por las Libertades Civiles (ACLU) a se?alar lo obvio en un comunicado: si se usa por parte de las autoridades, el hecho de "que una identificaci¨®n sea precisa o no puede costarle a una persona su libertad o incluso su vida".
De los distintos tipos de sistemas de reconocimiento facial que existen, los m¨¢s seguros son aquellos que se apoyan en criterios biom¨¦tricos, que escogen determinados puntos y distancias de una cara para generar un digital faceprint. "Ser¨ªa algo as¨ª como decir que cada uno de nosotros tenemos una huella facial ¨²nica al transformarse esos puntos y distancias en un vector num¨¦rico. Algunos puntos son la separaci¨®n entre ojos o el tama?o de la mand¨ªbula. De esta forma se evita hacer el reconocimiento por comparaci¨®n de im¨¢genes, un m¨¦todo en el que influyen las condiciones de luz y ambientales, lo que har¨ªa mucho m¨¢s complicado identificar caras", explica Nerea Luis Mingueza, investigadora en rob¨®tica e inteligencia artificial de la Universidad Carlos III de Madrid.
?Forman parte de la estrategia de las tecnol¨®gicas para mejorar sus sistemas de reconocimiento el juego de los 10 a?os de Facebook o el de "sube un selfi y busca la obra de arte que se parece a ti", de Google Arts & Culture?
Google, Apple, Facebook o Amazon centran sus esfuerzos en incorporar el an¨¢lisis de rostros en sus dispositivos (sobre todo smartphones, aunque no solo). La mayor¨ªa de tel¨¦fonos de gama alta y media fabricados en los ¨²ltimos a?os cuentan con lectores de huellas dactilares. En 2017, Apple present¨® el iPhone X, su primer dispositivo capaz de desbloquearse con un escaneo del rostro del usuario. Este m¨¦todo de autenticaci¨®n funciona tambi¨¦n en algunos tel¨¦fonos Android, como el Samsung Galaxy Note 9, que cuenta con un sistema de seguridad biom¨¦trico que combina el reconocimiento facial y de iris.
Las compa?¨ªas defienden que estos sistemas funcionan hasta con gafas de sol. Con muchas, porque se deben exceptuar aquellas dise?adas para bloquear alg¨²n tipo de luz, como la infrarroja que usan las c¨¢maras de reconocimiento (una idea por si en un futuro necesitas camuflarte a lo Tom Cruise en Minority Report).
Inteligencias artificiales racistas y machistas
M¨¢s all¨¢ de lo accesorio, la prueba que se llev¨® a cabo con el reconocimiento facial de Amazon puso de relieve la amenaza que el sistema de Bezos puede representar para las mujeres negras. Los porcentajes de error quedaron as¨ª: 35% para muejres de piel oscura, 12% para hombres de piel oscura, 7% para mujeres de piel blanca y 1% para hombres de piel blanca. Esto se debe a que los datos con los que los algoritmos son entrenados pueden estar condicionados por nuestros conocimientos y prejuicios.
"Los algoritmos generalmente se desarrollan porque, mayoritariamente, hombres blancos de entre 25 y 50 a?os as¨ª lo han decidido durante una reuni¨®n", explica la investigadora en rob¨®tica e inteligencia artificial de la Universidad Carlos III. Por lo tanto, seg¨²n se?ala, "los grupos infrarrepresentados siempre se ver¨¢n m¨¢s afectados por los productos tecnol¨®gicos". Es el caso, de la poblaci¨®n negra. En junio de 2015, un usuario de Google Photos descubri¨® que el programa etiquetaba a sus amigos negros como gorilas. La inteligencia artificial de Google no era capaz de distinguir una tez oscura de humano de la de simios como gorilas y chimpanc¨¦s.
Contribuir o no contribuir a mejorar el algoritmo
Pese al enorme margen de error que arrojan, en China no solo se han comenzado a usar por parte de la polic¨ªa, que lleva en su nuevo equipamiento unas gafas con reconocimiento. Tambi¨¦n hay equipos instalados en las puertas de las escuelas para combatir el absentismo escolar. La cantante estadounidense Taylor Swift us¨® un software de reconocimiento facial en un concierto que celebr¨® el pasado mayo en Los ?ngeles (EE UU) para detectar acosadores entre su p¨²blico. Y estos sistemas se usan ya en aeropuertos y estaciones de transporte.
Normalmente las empresas que los usan aseguran que no recaban ni almacenan datos personales de los usuarios. Pero hay quienes se cuestionan que esto sea cierto (no hay m¨¢s que recordar el caso Cambridge Analytica, cuando la consultora brit¨¢nica extrajo datos de m¨¢s de 70 millones de usuarios de la red social en Estados Unidos).
En el caso del #10yearchallenge, el debate lo plante¨® en Twitter la periodista tecnol¨®gica de la revista tecnol¨®gica Wired, Kate O¡¯Neill. "Yo hace 10 a?os: probablemente hubiera jugado con la foto de perfil con este meme del envejecimiento que est¨¢ dando vueltas en Facebook e Instagram. Yo ahora: ponderar c¨®mo todos estos datos podr¨ªan usarse para entrenar a los algoritmos de reconocimiento facial sobre progresi¨®n y reconocimiento de la edad", afirm¨® en la red social.
Los defensores del juego dicen que las fotos ya se encuentran en la red igualmente (aunque sin una cronolog¨ªa fiable y desperdigadas), y Facebook ha respondido que esta ha sido una iniciativa de los propios usuarios y que se ha viralizado sola.
En enero de 2018 la actriz Alyssa Milano tambi¨¦n puso en duda en Twitter la fiabilidad de la aplicaci¨®n Google Arts & Culture. Desde Google afirman que no existe una base de datos con fotograf¨ªas y que s¨®lo se almacenan el tiempo que la funci¨®n tarda en encontrar las coincidencias (lo cual no significa que no se est¨¦ entrenando a su inteligencia artifical).
Contribuir a entrenar a los sistemas de reconocimiento facial no tiene por qu¨¦ ser algo malo per se. Detr¨¢s hay una cuesti¨®n de pensamiento. Es un intercambio: p¨¦rdida de privacidad a cambio de la promesa de mayor seguridad. La respuesta depender¨¢ de lo c¨®modo que cada uno se sienta con este trueque, hasta d¨®nde est¨¢ dispuesto a llevarlo, y la motivaci¨®n ser¨¢ el grado de inseguridad que cada cual perciba (no faltan esfuerzos por parte de grupos de poder por magnificarla).
No todos los usos que se dan a estos sistemas de identificaci¨®n suponen un riesgo. El a?o pasado la polic¨ªa de Nueva Delhi los aplic¨® para encontrar a m¨¢s de 3.000 ni?os desaparecidos y, si la m¨¢quina fuera capaz de predecir los cambios f¨ªsicos que se producen con la edad, esta b¨²squeda podr¨ªa ampliarse a menores desaparecidos hace, digamos, 10 a?os.
Tambi¨¦n el reconocimiento facial (y de edad) puede usarse para fines que no percibimos ni como buenos ni como malos. Afinar la segmentaci¨®n de campa?as publicitarias, como en Piccadilly Circus, ser¨ªa un ejemplo. Pero sin duda plantea dilemas ¨¦ticos importantes, ya que, adem¨¢s de los posibles sesgos, gobiernos y empresas podr¨ªan utilizar esta tecnolog¨ªa como una herramienta de vigilancia.
Es fundamental que los dise?adores de estos sistemas garanticen la privacidad de los usuarios. Varias empresas como Telef¨®nica o Microsoft ya han publicado sus principios para hacer un uso responsable de la inteligencia artificial. Pero a¨²n queda mucho camino por recorrer. Un informe del AI Now Institute, un influyente instituto de investigaci¨®n con sede en Nueva York, acaba de nombrar el reconocimiento facial como un desaf¨ªo clave para la sociedad y los legisladores en los pr¨®ximos a?os.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.
Sobre la firma
M¨¢s informaci¨®n
Archivado En
- C¨¢maras video
- Reconocimiento voz
- Inteligencia artificial
- Aplicaciones inform¨¢ticas
- Identificacion
- Computaci¨®n
- Redes sociales
- Apple
- Buscadores
- Alphabet
- Seguridad nacional
- Polic¨ªa
- Software
- Fuerzas seguridad
- Defensa
- Inform¨¢tica
- Internet
- Empresas
- Econom¨ªa
- Telecomunicaciones
- Industria
- Comunicaciones
- Justicia
- Living
- ICON Design