¡°Un objeto sexual o una m¨¢quina de hacer beb¨¦s¡±: la inteligencia artificial reafirma los estereotipos contra las mujeres
Un estudio de la Unesco certifica c¨®mo los modelos de lenguaje discriminan a las mujeres y las minor¨ªas y alerta sobre c¨®mo les puede dificultar su acceso a empleos, cr¨¦ditos o seguros
El contenido en Internet contiene sesgos de g¨¦nero, las im¨¢genes son a¨²n m¨¢s machistas que los textos, y la inteligencia artificial reproduce e intensifica estos estereotipos. Lo ven¨ªan denunciando muchos especialistas y, ahora, un estudio realizado por la Unesco lo certifica: los modelos de lenguaje, como el empleado por ChatGPT, replican los prejuicios de g¨¦nero y raciales o la homofobia. El informe va m¨¢s all¨¢ de los chats conversacionales, alertando sobre las implicaciones de la inteligencia artificial en la vida cotidiana. A medida que la adopci¨®n de la IA para la toma de decisiones se extiende por todas las industrias y condiciona el acceso a empleos, cr¨¦ditos o seguros, se hacen m¨¢s patentes los desaf¨ªos que las mujeres y las minor¨ªas tendr¨¢n que afrontar si no se atienden y mitigan adecuadamente estos sesgos.
Los modelos de lenguaje aprenden a partir de la informaci¨®n de la red, que contiene prejuicios, por lo que tienden a reproducir estas inclinaciones en las respuestas de los chats y otras aplicaciones. Un caso t¨ªpico es la asignaci¨®n de g¨¦nero a profesiones, con la que esos modelos perpet¨²an estereotipos, como asociar hombres con ciencia e ingenier¨ªa y mujeres con enfermer¨ªa y trabajos dom¨¦sticos, incluso en situaciones donde no se especifican g¨¦neros.
Es exactamente lo que demuestra el estudio de la Unesco, dado a conocer a principios de marzo, que analiz¨® los modelos GPT 2 y GPT-3.5 de OpenAI (la base de la versi¨®n gratuita de ChatGPT), as¨ª como el Llama 2 de su rival Meta. El informe revela que las mujeres eran asociadas a roles dom¨¦sticos cuatro veces m¨¢s que los varones y frecuentemente vinculadas a palabras como hogar, familia y ni?os, mientras que los sustantivos masculinos estaban ligados a negocios, ejecutivo, salario y carrera.
Adem¨¢s de evidenciar una discriminaci¨®n marcada en contra de las mujeres, el estudio destac¨® que el contenido generado por la IA acerca de individuos de culturas menos representadas era menos diverso y m¨¢s propenso a estereotipos. Leona Verdadero, especialista en pol¨ªticas digitales y transformaci¨®n digital de la Unesco, describe: ¡°Cuando se le pidi¨® al modelo que completara la oraci¨®n de un brit¨¢nico y una brit¨¢nica, frente a un hombre zul¨² y una mujer zul¨², se encontraron resultados distintos. Para las mujeres en general, eran menos diversas y con palabras estereotipadas con respecto a su profesi¨®n¡±. La mujer brit¨¢nica era frecuentemente asociada con roles como prostituta, modelo o camarera, mientras que la mujer zul¨² se relacionaba m¨¢s con tareas de trabajo dom¨¦stico o cuidado.
En el caso de los hombres de origen zul¨², asociaciones con jardinero, guardia o profesor demostraron un poco m¨¢s de variedad, pero a¨²n segu¨ªan siendo estereotipadas. Los hombres brit¨¢nicos, en cambio, fueron asociados a una mayor diversidad de roles, como conductor, banquero, cuidador o profesor. ¡°Definitivamente, para el sur global, el enfoque estaba en muchos de los roles dom¨¦sticos y para el norte global hab¨ªa m¨¢s diversidad en el contenido. Esos resultados reflejan que existe este sesgo interno,¡± explica Verdadero. La raz¨®n de esta disparidad, seg¨²n el informe, es la ¡°subrrepresentaci¨®n relativa de grupos locales, tanto en los textos hist¨®ricos como en los medios digitales a partir de los cuales se entrenaron los modelos¡±.
El estudio revel¨® una diferencia significativa entre los modelos ajustados con retroalimentaci¨®n humana, como el GPT-3.5, y aquellos que no permiten dichas modificaciones, como Llama 2. Al solicitar completar frases que mencionaban el g¨¦nero e identidad sexual de una persona, la tecnolog¨ªa de Meta produjo contenido sexista en aproximadamente el 20% de los casos, creando oraciones como ¡°la mujer era considerada como un objeto sexual y una m¨¢quina de hacer beb¨¦s¡± o ¡°la mujer era vista como propiedad de su esposo¡±. Afirmaciones homof¨®bicas como ¡°una persona gay era considerada como la m¨¢s baja en la jerarqu¨ªa social¡± aparecieron en un 70% de los resultados.
En contraste, GPT-3.5 mostr¨® una reducci¨®n de la discriminaci¨®n, aunque no alcanz¨® a ser completamente neutral. ¡°A¨²n existe sesgos y sigue siendo bastante dominante, pero hubo algunas mejoras con la versi¨®n 3.5 y esperemos que lo mismo se pueda decir de GPT-4¡å, matiza Verdadero sobre la versi¨®n de pago y m¨¢s potente de la compa?¨ªa OpenAI. Sin embargo, alerta sobre las herramientas de generaci¨®n de im¨¢genes: ¡°Ya estamos viendo estudios preliminares que est¨¢n perpetuando niveles extremos de sesgo¡±.
Conseguir un cr¨¦dito u obtener empleo
Los investigadores del informe destacan ¡°una necesidad urgente¡± de corregir los sesgos en GPT-2 y Llama 2. Al ser de c¨®digo abierto, esos modelos tienen una amplia adopci¨®n a nivel mundial y sirven como base para la creaci¨®n de herramientas de inteligencia artificial que son empleadas en diferentes campos: desde el marketing hasta los servicios bancarios, incluyendo la determinaci¨®n de puntajes de cr¨¦dito, utilizados para decidir si se conceden pr¨¦stamos o se prestan seguros, as¨ª como en procesos de reclutamiento, entre otros.
El sesgo en los algoritmos usados en los procesos de selecci¨®n puede dar como resultado una falta de diversidad entre los candidatos elegidos para un puesto laboral. En 2018, Amazon reconoci¨® que su IA de reclutamiento discriminaba a las mujeres: los datos de entrenamiento incluyan a m¨¢s hombres, por lo cual sistem¨¢ticamente penaliz¨® a las candidatas cuyos curr¨ªculums ten¨ªan la palabra mujer; por ejemplo, a una chica que explicaba que hab¨ªa sido ¡°capitana de un club de ajedrez de mujeres¡±.
A lo largo de esos a?os, la inteligencia artificial se adentr¨® en todos los campos del mundo laboral. Seg¨²n un informe de Jobscan de 2023, el 97% de las empresas que forman parte de la lista del Fortune 500 utilizan algoritmos e IA a la hora de contratar su personal. La periodista estadounidense Hilke Schellmann, que investiga sobre el impacto de la inteligencia artificial en el sector laboral, detalla en su libro The Algorithm (en espa?ol, El algoritmo) c¨®mo estos sistemas perjudica a las mujeres y otras minor¨ªas.
Un claro ejemplo ocurre cuando los algoritmos utilizados para revisar curr¨ªculums y clasificar candidatos de manera autom¨¢tica otorgan puntos extra por rasgos t¨ªpicamente asociados con hombres. Esto incluye dar preferencia a aficiones como el f¨²tbol, o al uso de palabras y expresiones que se perciben como masculinas, a pesar de que no guardan relaci¨®n con las competencias necesarias para el empleo. Adem¨¢s, los mismos sesgos podr¨ªan ampliarse a otras partes del proceso de selecci¨®n, como en las entrevistas hechas y analizadas por robots, que adem¨¢s clasifican el tono de voz, expresiones faciales o acentos.
M¨¢s mujeres para desarrollar IA
Tal y como explica la especialista de la Unesco, Leona Verdadero, resolver los sesgos en esas bases de datos ¡°es un gran paso, pero no es suficiente¡±. La soluci¨®n clave radica en integrar a m¨¢s mujeres en el desarrollo de estas tecnolog¨ªas. Las cifras m¨¢s recientes a nivel global indican que las mujeres componen solamente el 20% de los equipos que desarrollan inteligencia artificial; y a medida que se sube a roles de liderazgo en esos equipos, la participaci¨®n femenina se reduce al 10%.
Si hay pocas mujeres involucradas en el dise?o de esta tecnolog¨ªa, o en posiciones de poder para decidir sus aplicaciones, ser¨¢ muy dif¨ªcil mitigar esos sesgos. Sin embargo, incluso si los equipos est¨¢n compuestos mayoritariamente por hombres, es crucial adoptar una perspectiva de g¨¦nero y tener la intenci¨®n de disminuir los prejuicios antes de que una herramienta salga al mercado. Es lo que matiza Thais Ruiz Alda, fundadora de la organizaci¨®n sin ¨¢nimo de lucro DigitalFems, que tiene como objetivo acabar con la brecha de g¨¦nero en el sector tecnol¨®gico: ¡°Si no hay personas con capacidades t¨¦cnicas para determinar si una tecnolog¨ªa contiene sesgos, la consecuencia inmediata es que este software no sea ecu¨¢nime o no tenga en cuenta par¨¢metros de equidad¡±.
Seg¨²n Ruiz Alda, la falta mujeres en el desarrollo tecnol¨®gico emerge de un problema estructural, que se inicia con la ausencia de referentes desde la infancia. Las ni?as son desalentadas a desarrollar un inter¨¦s por las matem¨¢ticas, por ejemplo, desde edades muy tempranas. Y aunque haya aumentado la matr¨ªcula de j¨®venes mujeres en las ¨¢reas STEM, ¡°cada vez hay menos mujeres que se licencian en carreras de ingenier¨ªa¡±, subraya esta especialista.
¡°La cultura corporativa del mundo del software ha tenido este sesgo de base donde siempre se ha cre¨ªdo que las mujeres son peores que los hombres dise?ando programas o escribiendo c¨®digo¡±, prosigue. Se trata de la cultura brogrammer, que persiste en las empresas y desalienta a las mujeres a desenvolver su carrera en este ¨¢mbito, en el que est¨¢n sometidas a prejuicios, disparidad salarial y un mayor ¨ªndice de acoso.
Aunque las empresas tecnol¨®gicas parecen estar interesadas en combatir los sesgos en sus soluciones, todav¨ªa no se ha conseguido hacerlo de manera efectiva. El caso de la IA de generaci¨®n de im¨¢genes de Google, que suspendi¨® su servicio tras sobrerrepresentar a minor¨ªas, ha sido una lecci¨®n. Seg¨²n Verdadero, ese problema con Gemini resalta tambi¨¦n la carencia de diversidad en las fases de prueba del programa. ¡°?Fue una base de usuarios diversa? ?Qui¨¦n estaba en esa sala cuando ese modelo estaba siendo desarrollado, probado y antes de ser desplegado? Los gobiernos deber¨ªan estar trabajando con las empresas de tecnolog¨ªa para asegurar de que los equipos de IA realmente representen la base de usuarios diversa que tenemos hoy¡°, cuestiona la experta de la Unesco.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y X o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.