El algoritmo se equivoca. La cara no siempre dice lo que uno siente
Algunos sistemas inform¨¢ticos pretenden interpretar el estado de ¨¢nimo de las personas analizando el aspecto de sus rostros. Un cient¨ªfico espa?ol y su equipo han demostrado que eso es imposible
Puede que en su pr¨®xima entrevista de trabajo su perfil sea descartado por culpa de una microexpresi¨®n facial que una m¨¢quina considere inapropiada. O que le detengan mientras hace cola en la aduana de EE UU al considerar un sistema de inteligencia artificial que los gestos de su cara son propios de quien se dispone a atentar. Son dos ejemplos de la aplicaci¨®n de los llamados sistemas de detecci¨®n de emociones (affect recognition). Se trata de una controvertida tecnolog¨ªa apoyada en algoritmos de aprendizaje autom¨¢tico que dice ser capaz de reconocer qu¨¦ siente una persona con solo analizar su rostro. Es un pelda?o m¨¢s en la carrera del reconocimiento facial. Tras identificar a los individuos al procesar una imagen toca ahora detectar y clasificar los sentimientos que revele su cara.
La tecnolog¨ªa es controvertida porque tiene un serio problema de base: las teor¨ªas en las que se apoyan estas aplicaciones est¨¢n obsoletas. Las emociones no se traducen en expresiones faciales universales que se puedan parametrizar. Eso ha quedado cient¨ªficamente demostrado gracias a dos grupos de investigadores. Uno est¨¢ en la Universidad de Yale y el otro lo lidera el profesor de psicolog¨ªa Jos¨¦ Miguel Fern¨¢ndez Dols, de la Universidad Aut¨®noma de Madrid. Este ¨²ltimo acaba de publicar en la revista cient¨ªfica Emotions, una de las m¨¢s importantes en esta disciplina, un art¨ªculo en el que revisa todas las investigaciones que se han hecho en este campo y que apuntala la conclusi¨®n a la que ha llegado en los ¨²ltimos a?os: es imposible saber qu¨¦ experimenta una persona fij¨¢ndose solo en su cara. El contexto es determinante para interpretar cualquier mueca o gui?o. Y esa informaci¨®n contextual y cultural no entra en el an¨¢lisis de los sistemas de inteligencia artificial.
A pesar de ello, estos sistemas viven una r¨¢pida expansi¨®n. Empresas como Amazon (Rekognition), Microsoft (Face API), Apple (que compr¨® la startup Emotient) o IBM tienen sus propios desarrollos al respecto. Aunque de origen eminentemente militar, esta tecnolog¨ªa se usa mucho en procesos de reclutamiento de personal. Tambi¨¦n, en contextos de educaci¨®n (para dilucidar si los alumnos atienden en clase o se aburren), vigilancia en fronteras y hasta en algunos estadios de f¨²tbol europeos para prevenir peleas.
La selecci¨®n de personal es una de las ¨¢reas en las que m¨¢s crecen estos sistemas. La startup londinense Human, por ejemplo, analiza v¨ªdeos de entrevistas y asegura que puede identificar expresiones de emoci¨®n y relacionarlas con rasgos de su car¨¢cter para puntuar finalmente al candidato en rasgos como honestidad o pasi¨®n por el trabajo, seg¨²n public¨® el Financial Times. Otra compa?¨ªa, HireVue, que tiene entre sus clientes a Goldman Sachs, Intel o Unilever, ha dise?ado un sistema para inferir la idoneidad del candidato con el puesto a partir de sus expresiones faciales compar¨¢ndolas con las de los trabajadores de mayor rendimiento.
¡°Los sistemas de detecci¨®n de emociones se suelen aplicar en procesos de selecci¨®n de organismos o empresas que tienen que reclutar a bastante gente de forma continuada, principalmente para puestos poco cualificados y remunerados¡±, ilustra Lorena Jaume-Palas¨ª, consultora y fundadora de The Ethical Tech Society, una organizaci¨®n multidisciplinar de an¨¢lisis de la ¨¦tica algor¨ªtmica. Esta espa?ola afincada en Berl¨ªn realiz¨® un informe para el gobierno Alem¨¢n en el que examin¨® precisamente el funcionamiento de estos modelos. Vio que los usan desde Ikea a petroleras, pero tambi¨¦n la propia UE.
Un error que se remonta a los sesenta
La idea de inferir el comportamiento humano a trav¨¦s del aspecto de las personas no es nueva. ¡°Est¨¢ vinculada a la frenolog¨ªa, la pseudociencia que trataba de vincular la geometr¨ªa craneal a determinados comportamientos. Y a otras corrientes que siempre jerarquizaban al ser humano en categor¨ªas, siendo el hombre blanco la c¨²spide de la pir¨¢mide¡±, indica Jaume-Palas¨ª.
En 1967, un psic¨®logo estadounidense llamado Paul Ekman viaj¨® por las zonas monta?osas de Pap¨²a Nueva Guinea ense?ando en las aldeas ind¨ªgenas m¨¢s remotas tarjetas con fotos de personas que expresaban asombro, contento o disgusto. Quer¨ªa demostrar que todos los seres humanos presentan un peque?o n¨²mero de emociones que son innatas, naturales, reconocibles por todo el mundo y transculturales. Pocos a?os despu¨¦s, Ekman pas¨® a ser una celebridad en la Academia.
Su teor¨ªa se basa en dos pilares. El primero es que cualquier persona es capaz de reconocer ciertas expresiones. Es decir, que si se le muestra una foto con una sonrisa a alg¨²n individuo de una sociedad relativamente aislada dir¨¢ que el de la imagen est¨¢ alegre. Estas conclusiones se basan en una serie de estudios que se han hecho en pa¨ªses desarrollados y en el trabajo de Ekman en Pap¨²a Nueva Guinea. ¡°Lo que ocurre es que desde hace unos 20 a?os se est¨¢n desarrollando unas nuevas investigaciones metodol¨®gicamente mejores que est¨¢n mostrando que ese reconocimiento no es universal, sino que depende de factores culturales¡±, describe Fern¨¢ndez Dols. ¡°Si te vas a Pap¨²a o a ciertas partes de ?frica te das cuenta de que ese supuesto reconocimiento universal no existe¡±, subraya.
Eso es precisamente lo que ha hecho su equipo. Repiti¨® el experimento de Ekman en Pap¨²a y en una isla de Mozambique, pero a diferencia de ¨¦l, a Fern¨¢ndez Dols le acompa?¨® un experto en la lengua y cultura de la zona, un detalle que lo cambia todo. Lisa Feldman y Maria Gendron, de la Universidad de Yale, hicieron lo propio en aldeas remotas de Namibia y Tanzania y llegaron a las mismas conclusiones. ¡°Aunque parezca mentira, desde los a?os sesenta no se hab¨ªa hecho m¨¢s investigaci¨®n transcultural rigurosa. La nuestra y la de Yale ha sido la primera¡±, a?ade.
El segundo pilar de la teor¨ªa de Ekman es que la gente realmente dibuja en su rostro esas expresiones supuestamente universales cuando est¨¢ experimentando una emoci¨®n: sonr¨ªe cuando est¨¢ contento, frunce el ce?o cuando est¨¢ disconforme, etc¨¦tera. Esto es m¨¢s dif¨ªcil de comprobar, pero Fern¨¢ndez Dols lleva a?os trabajando en ello. ¡°Lo que hemos visto es que cuando consigues registrar la expresi¨®n de la gente en situaciones en las que reporta sentir una determinada emoci¨®n, no aparecen las expresiones que se supone que se tienen que dar ante emociones determinadas¡±, explica.
Se puede sonre¨ªr y estar triste o avergonzado. Es m¨¢s, una sonrisa no significa lo mismo en todas partes. Un estudio realizado en Yale simul¨® entrevistas de trabajo con chicas j¨®venes. ¡°El entrevistador hac¨ªa observaciones inapropiadas a las chicas y se registraba al mismo tiempo su conducta, y se vio que la mayor¨ªa sonre¨ªa en una situaci¨®n obviamente estresante y desagradable. Tambi¨¦n sonr¨ªes cuando est¨¢s apurado o estresado, o en situaciones humor¨ªsticas que no necesariamente significan que est¨¦s feliz¡±, abunda el profesor.
Una simplificaci¨®n conveniente
Pero las teor¨ªas de Ekman son tan atractivas que han entrado con fuerza en las aplicaciones de inteligencia artificial. ¡°El modelo de Ekman aporta dos cosas esenciales para los sistemas de machine learning: una serie finita, estable y discreta de etiquetas que los humanos pueden usar para categorizar fotos de caras y un sistema para medirlas¡±, escribe Kate Crawford en su libro Atlas of AI (Yale University Press, 2021). ¡°Permite eliminar el trabajo dif¨ªcil de representar las vidas interiores de la gente sin ni siquiera preguntarles qu¨¦ sienten¡±.
Seg¨²n la autora australiana, los sistemas de detecci¨®n de emociones est¨¢n ¨ªntimamente vinculados al ¨¢mbito militar y de la seguridad. Bebieron de la financiaci¨®n de los servicios de inteligencia estadounidenses durante la Guerra Fr¨ªa, que se esforzaron en desarrollar el campo de la visi¨®n computacional (el reconocimiento de im¨¢genes por parte de ordenadores). Tras el 11S, proliferaron los programas de investigaci¨®n empleados para identificar a terroristas y detectar comportamientos sospechosos.
El problema es que, como tienen un error de base, estos sistemas fallan a menudo. Y suelen perjudicar a los de siempre. Un estudio de la Universidad de Maryland muestra que algunos sistemas de reconocimiento facial interpretan emociones negativas, particularmente enfado o mirada despectiva, de forma m¨¢s frecuente en los rostros de las personas negras que en los de personas blancas. Estos sistemas tienen sesgos. Y de lo que carecen seguro es de base cient¨ªfica.
Puedes seguir a EL PA?S TECNOLOG?A en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.