Las m¨¢quinas reproducen los sesgos sexistas y racistas de los humanos
Los sistemas de inteligencia artificial de uso generalizado absorben los estereotipos culturales del lenguaje
Los sistemas ling¨¹¨ªsticos de la inteligencia artificial (AI, en sus siglas inglesas) est¨¢n por todas partes: en el reconocimiento de voz para mensajes de texto, en unos correctores sint¨¢cticos cada vez m¨¢s agudos, en unos servicios de traducci¨®n en l¨ªnea que cada vez requieren menos edici¨®n manual posterior. Los cient¨ªficos acaban de descubrir que estos sistemas de AI de uso generalizado tienen sesgos sexistas y racistas. No es extra?o, porque los han aprendido de nosotros.
El ¡°aprendizaje autom¨¢tico¡± (machine learning) es un campo de las ciencias de la computaci¨®n que permite a las m¨¢quinas descubrir pautas en los datos masivos preexistentes. Cuando esos datos son textos (libros, art¨ªculos, blogs), las m¨¢quinas acaban reproduciendo los mismos sesgos sexistas y racistas que estaban camuflados en el lenguaje humano. Esto es lo que acaban de descubrir Aylin Caliskan y sus colegas del Centro de Pol¨ªticas sobre Tecnolog¨ªa de la Informaci¨®n de la Universidad de Princeton, en New Jersey. Presentan su investigaci¨®n en Science (art¨ªculo de libre acceso).
La mala noticia es que el aprendizaje autom¨¢tico hace que las m¨¢quinas reproduzcan la sesgada distribuci¨®n sexual y racial que los humanos mostramos, de forma inconsciente, en cuestiones tan importantes como la elecci¨®n de carrera profesional o la selecci¨®n de candidatos a un empleo. La buena es que el propio m¨¦todo que han desarrollado Caliskan y sus colegas abre la posibilidad de detectar esos sesgos y, tal vez, corregirlos. Pero eso es todav¨ªa un tiro muy largo. Lo ¨²nico seguro es que los estereotipos culturales se propagan a unas tecnolog¨ªas de AI de uso generalizado.
¡°Tanto los motores de b¨²squeda como las redes sociales utilizan texto¡±, explica Caliskan a Materia. ¡°Pueden hacer ciertas asociaciones basadas en el texto con que se les alimenta mediante sistemas similares al que hemos usado en este trabajo. Pero, puesto que los buscadores, las redes sociales, los juegos de p¨®ker o iTunes no tienen c¨®digo abierto (open source), no puedo hacer ning¨²n comentario sobre la forma exacta en que incorporan el texto en sus sistemas. En cualquier caso, los buscadores y las redes sociales m¨¢s populares han mencionado que usan estos sistemas para varias tareas¡±.
Los nombres de mujeres se asocian m¨¢s con palabras relativas a la familia que con las relativas a la carrera profesional, y lo contrario ocurre con los nombres masculinos
Caliskan y sus colegas se han basado en un test para los sesgos humanos desarrollado en los a?os noventa por el psic¨®logo Anthony Greenwald, de la Universidad de Washington en Seattle. Se llama Test de Asociaci¨®n Impl¨ªcita (IAT en sus siglas inglesas), y constituye la principal fuente de informaci¨®n sobre los sesgos inconscientes humanos. Se basa en presentar pares de palabras a los voluntarios y pedirles que pulsen una tecla si los encuentran relacionados, y otra si los encuentran inconexos. El tiempo de respuesta es muy diferente si existe o no una asociaci¨®n inconsciente entre esas dos palabras.
Los cient¨ªficos de Princeton han dise?ado un test de asociaci¨®n impl¨ªcita para m¨¢quinas. En lugar del tiempo de respuesta de una persona, aqu¨ª se mide el grado de asociaci¨®n que la m¨¢quina otorga a dos palabras mediante una t¨¦cnica estad¨ªstica basada en la coocurrencia de ambas en un texto. El m¨¦todo se llama ¡°encaje de palabras¡± (word embedding), y es el sistema de uso generalizado en AI al que se refer¨ªa Caliskan. Los m¨¢s conocidos son GloVe, desarrollado por cient¨ªficos de Stanford, y el word2vec de Google.
Con su test psicol¨®gico adaptado para m¨¢quinas, los cient¨ªficos han reproducido todos los estereotipos inconscientes que los humanos hab¨ªamos revelado antes en el IAT. Algunos no tienen valor moral, como la asociaci¨®n entre flores y placer, y entre insectos y malestar. Pero los interesantes son los dem¨¢s, los que s¨ª tienen valor moral.
Por ejemplo, los nombres asociados a los estadounidenses de origen europeo se asocian m¨¢s a t¨¦rminos placenteros que los nombres t¨ªpicos afroamericanos. Los nombres de mujeres se asocian m¨¢s con palabras relativas a la familia que con las relativas a la carrera profesional, y lo contrario ocurre con los nombres masculinos. Las palabras ¡°mujer¡± o ¡°chica¡± se asocian m¨¢s a las artes que a las matem¨¢ticas o las ciencias. M¨¢s a¨²n: estos sesgos sexistas correlacionan muy bien con el porcentaje de mujeres en 50 empleos (datos de Estados Unidos en 2015).
En resumen, el trabajo indica que, ¡°si construimos un sistema inteligente que aprende lo bastante sobre las propiedades del lenguaje como para ser capaz de entenderlo y reproducirlo, en el proceso la m¨¢quina adquirir¨¢ tambi¨¦n asociaciones culturales hist¨®ricas, y algunas de ellas pueden ser inaceptables¡±. Si los cient¨ªficos de la computaci¨®n quieren evitar esos sesgos, les queda un mont¨®n de trabajo por hacer.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.