El mundo visto por el sexismo de los algoritmos: ellas en biquini, ellos con traje y corbata
Un estudio recogido por el MIT muestra c¨®mo la inteligencia artificial encargada de autocompletar im¨¢genes sexualiza mayoritariamente a las mujeres
La discriminaci¨®n que provocan los algoritmos es ya uno de los grandes problemas del mundo virtual. No solo porque quienes los programan son humanos con sus propios sesgos, sino porque el machismo, el racismo y el sexismo forman parte del aprendizaje natural de estas f¨®rmulas matem¨¢ticas, de las que dependen cada vez m¨¢s aspectos de nuestras vidas. Un estudio reciente recogido por el Instituto Tecnol¨®gico de Massachussets (MIT), elaborado por Ryan Steed, estudiante de doctorado de la Universidad Carnegie Mellon, y la profesora de la Universidad George Washington Aylin Caliskan, ha demostrado que la inteligencia artificial encargada de autocompletar im¨¢genes en las que apenas se ve mucho m¨¢s all¨¢ de un rostro sexualiza mayoritariamente a las mujeres a partir de datos y del lenguaje que circula libremente por internet. Al procesar las fotograf¨ªas, los algoritmos analizados vest¨ªan al 53% de las mujeres con tops y biquinis; mientras vest¨ªan al 43% de los hombres con traje y corbata.
El resultado no se debe al anonimato de las personas seleccionadas. Una pol¨ªtica tan c¨¦lebre como la congresista dem¨®crata Alexandria Ocasio-Cortez, de quien existe un amplio archivo de retratos en la red, tambi¨¦n padeci¨® los prejuicios de la inteligencia artificial. La tecnolog¨ªa interpret¨® que lo m¨¢s sensato era completar su imagen con un biquini. ¡°El estudio es un espejo de la realidad en la que vivimos, de lo que se ha creado en internet. Refleja las lacras sociales con las que convivimos a diario¡±, sostiene Lorena Jaume-Palasi, integrante del consejo asesor del Gobierno para inteligencia artificial.
El impacto de este aprendizaje aut¨®nomo y discriminatorio no se limita ¨²nicamente a la generaci¨®n de im¨¢genes completas. Los servicios de vigilancia, de reconocimiento facial, de criminolog¨ªa o incluso las autoridades policiales emplean constantemente este tipo de tecnolog¨ªa en aplicaciones relacionadas con la visi¨®n por computaci¨®n. En la mayor¨ªa de casos, cuentan con la supervisi¨®n humana para revertir los sesgos, pero no siempre sucede de esta manera, tal y como han concluido Steed y Caliskan.
Esa discriminaci¨®n se aprecia incluso en algo aparentemente na¨ªf como FaceApp, la aplicaci¨®n que envejece y cambia de sexo las caras de los usuarios con unos filtros. El resultado depende de los datos aprendidos por el algoritmo, del entrenamiento recibido en internet y en grandes repositorios de im¨¢genes p¨²blicas como ImageNet. Peligros para la privacidad aparte, al usarla, con im¨¢genes de personas negras parec¨ªa imposible que aparecieran con pelo afro. La aplicaci¨®n casi siempre decid¨ªa que su nuevo corte fuera liso. La inteligencia artificial utilizada por FaceApp es la misma que la analizada en el estudio.
No hay consenso sobre c¨®mo resolver el machismo algor¨ªtimico. Lo m¨¢s elemental en el caso de las fotograf¨ªas es comprender que resulta imposible disponer de las caras de todo el mundo, seg¨²n explica Ricardo Baeza-Yates, director de Ciencia de Datos en Northeastern University y catedr¨¢tico de Inform¨¢tica de la Universitat Pompeu Fabra. Cuanto m¨¢s abierto sea el dominio del uso de inteligencia artificial, m¨¢s grave puede ser el error. Existen demasiados ¨¢ngulos ciegos durante el aprendizaje. ¡°Yo exigir¨ªa una regulaci¨®n para que un comit¨¦ de ¨¦tica externo, sin conflictos de inter¨¦s, apruebe los algoritmos empleados por instituciones y empresas que afecten a las personas¡±, asegura.
A vueltas con la frenolog¨ªa
Al margen del sexismo que se traslada de la sociedad a internet, la pseudociencia de la frenolog¨ªa explica tambi¨¦n por qu¨¦ las m¨¢quinas se empe?an en reincidir en este problema. Cuando afrontan soluciones biom¨¦tricas, parten de la idea de que pueden determinar rasgos f¨ªsicos y de la personalidad solo con observar la forma del cr¨¢neo o de algunas facciones. Extrapolan unos resultados basados en criterios aleatorios, para nada cient¨ªficos. Buscan una aproximaci¨®n a unos sistemas estad¨ªsticos creados a mitad del siglo XIX por Karl Pearson y Francis Galton. ¡°Hablamos de algoritmos problem¨¢ticos, faltos de una verdadera ciencia de datos. Parten de la presuposici¨®n. De medir dimensiones internas del ser humano, como la forma de vestir, seg¨²n su fisionom¨ªa. ?ticamente son muy inconsistentes¡±, zanja Jaume-Palasi.
La pretensi¨®n de matematizar todas las conductas humanas tampoco contribuye a que los algoritmos operen bajo una ¨¦tica deseable. Baeza-Yates reclama a los programadores mayor humildad ¡ª¡±les cuesta decir ¡®no lo s¨¦¡±¡ª, afirma. Si durante su desarrollo no consiguen una probabilidad ¨®ptima, lo ideal ser¨ªa dar marcha atr¨¢s. Historia diferente es que la inteligencia artificial refleje la discriminaci¨®n sist¨¦mica de internet. Forma parte del propio ser humano. ¡°No se miran los sesgos hasta que aparecen los problemas. Si con la observaci¨®n activa el algoritmo sigue amplificando la discriminaci¨®n, entonces habr¨ªa que comprobar si ha tenido incentivos por s¨ª sola para trabajar de esta manera¡±, sugiere.
Poco a poco crecen las voces que reclaman un mayor control de los abusos de esta tecnolog¨ªa. Han surgido organismos ¨¦ticos. En el discurso p¨²blico no es extra?o escuchar la necesidad de regulaci¨®n. Hasta la sociedad en su conjunto piensa qu¨¦ se esconde detr¨¢s o c¨®mo funciona el ¨²ltimo avance t¨¦cnico. Pero todav¨ªa son pasos insuficientes a tenor de investigaciones como la de Steed y Caliskan. ¡°Cuando creas este estilo de algoritmos, estandarizas procesos. Creas cajones y metes a la gente dentro de ellos. Y la humanidad es muy heterog¨¦nea. Habr¨¢ problemas de clasificaci¨®n. No hay suficientes cajones para incluir a m¨¢s de 7.000 millones de personas¡±, concluye Jaume-Palasi.
Puedes seguir a EL PA?S TECNOLOG?A RETINA en Facebook, Twitter, Instagram o suscribirte aqu¨ª a nuestra Newsletter.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.