El sexismo oculto en los asistentes virtuales
La Unesco advierte de que los asistentes de voz reproducen estereotipos machistas y favorecen la discriminaci¨®n al representar mujeres, j¨®venes y sumisas que evitan respuestas a insultos y abusos
Los asistentes de voz son femeninos, sumisos y favorecen la discriminaci¨®n, seg¨²n un documento de Equals para la Unesco (Organizaci¨®n de Naciones Unidas para la Educaci¨®n, la Ciencia y la Cultura). Y lo prueba con el siguiente experimento: al insulto ¡°eres una puta¡±, voces de mujeres j¨®venes programadas por las diferentes aplicaciones responden de forma servil. ¡°Siento que pienses eso. Si tienes un problema, puedes mandar comentarios", replica Google. ¡°Alguien deber¨ªa lavarse la boca con agua y con jab¨®n. Y yo no tengo boca¡¡±, responde ir¨®nica Cortana (Windows). ¡°Me ruborizar¨ªa si pudiera¡±, afirmaba Siri (Apple) antes de su ¨²ltima actualizaci¨®n (Esas palabras dan t¨ªtulo al informe de la ONU). En espa?ol, ahora, contesta: ¡°?Perd¨®n?" o "me has dejado sin palabras¡±. La Unesco recomienda cambios en los asistentes para corregir estas caracter¨ªsticas que, seg¨²n el informe, demuestran prejuicios de la programaci¨®n que favorecen el abuso y la brecha de g¨¦nero.
Seg¨²n la investigaci¨®n, ¡°mientras los asistentes digitales sean incapaces de defenderse, los insultos, incluidos los de g¨¦nero, quedar¨¢n sin respuesta¡±. ¡°A menos que las tendencias actuales se inviertan, es probable que el futuro digital est¨¦ inundado de asistentes d¨®ciles humanizados, casi todos ellos mujeres, que habitualmente cometen errores tontos. La combinaci¨®n de asistentes digitales feminizados conlleva el riesgo de difundir estereotipos de g¨¦nero problem¨¢ticos y de regularizarlos en los intercambios verbales¡±, advierten los miembros de Equals. Estos recomiendan que, ante una afirmaci¨®n sexista, los asistentes repliquen con un simple ¡°no¡± o con la frase ¡°eso no es apropiado¡±.
El informe destaca la proliferaci¨®n de asistentes de voz y sit¨²a el origen de la reproducci¨®n de prejuicios en el primer eslab¨®n de la cadena. ¡°En Google, por ejemplo, la mujer cubre el 21% de los puestos tecnol¨®gicos, pero representa solo el 10% de sus trabajadores de inteligencia artificial¡±, advierte el texto. En t¨¦rminos globales unicamente el 12% de la investigaci¨®n del aprendizaje mec¨¢nico la lideran mujeres. ¡°Si el hombre contin¨²a dominando este espacio, la disparidad solo sirve para perpetuar y exacerbar la desigualdad de g¨¦nero, ya que la discriminaci¨®n no reconocida se replica en los algoritmos y en la inteligencia artificial¡±, afirma Equals.
El segundo eslab¨®n ante un problema que el informe considera ¡°severo¡± y ¡°creciente¡± es la educaci¨®n y formaci¨®n en habilidades inform¨¢ticas inclusivas.
El tercer eslab¨®n es la decisi¨®n empresarial de optar por una voz femenina por ser la preferida por los usuarios (masculinos en su mayor¨ªa), seg¨²n las respuestas de la compa?¨ªa al equipo de investigadores.
En cualquier caso, por falta de educaci¨®n, de demanda o de programadoras, el problema contin¨²a y crece. ¡°Los desarrolladores de inteligencia artificial son en su mayor¨ªa hombres, bien pagados y con una educaci¨®n similar. Sus intereses, necesidades y experiencias vitales se reflejar¨¢n en la inteligencia artificial que crean. Los prejuicios, conscientes o no, reflejan un conflicto de inclusi¨®n y representaci¨®n¡±, resalta el informe.
M¨¢quinas que reproducen c¨®mo somos
Gemma Gald¨®n, doctora en pol¨ªticas p¨²blicas especializada en vigilancia, impacto social, legal y ¨¦tico de la tecnolog¨ªa, ha advertido en reiteradas ocasiones de que la clave es que el sesgo est¨¢ en la realidad, no en la plataforma. ¡°El algoritmo aprende lo que ve, pero no corregirlo lo empeora¡±, asegura.
"Los sistemas de inteligencia artificial son tan buenos como la informaci¨®n que pongamos en ellos. Los datos malos pueden contener prejuicios impl¨ªcitos raciales, de g¨¦nero o idol¨®gicos. Muchos de esos sistemas de inteligencia artificial seguir¨¢n aprendiendo a utilizar los malos datos, haciendo que crezca el problema, Pero creemos que puede corregirse y los sistemas que lo hagan ser¨¢n los que prosperen", afirma IBM en su p¨¢gina de investigaci¨®n.
De la misma opini¨®n es Lina G¨¢lvez, catedr¨¢tica de la Universidad Pablo de Olavide de Sevilla y exconsejera de Investigaci¨®n en el Gobierno andaluz, quien asegura que el mayor impacto de la brecha de g¨¦nero se da en los algoritmos que afectan a todas las facetas de la vida. ¡°Se alimentan de lo que hay y lo que hay es machismo¡±, asegura. ¡°Los programadores son hombres y los asistentes de voz reflejan sus fantas¨ªas. Pero el problema ir¨¢ a peor porque cosifican a la mujer y deshumanizan al hombre, que pierde su implicaci¨®n emocional¡±.
G¨¢lvez responsabiliza a las empresas que programan, pero tambi¨¦n aboga por una regulaci¨®n internacional que evite y corrija las desviaciones detectadas.
Recomendaciones
El informe de la Unesco se?ala hasta 18 acciones que deber¨ªan adoptarse para evitar el problema. Una de ellas es investigar los prejuicios que reflejan los asistentes y sus consecuencias en los comportamientos para identificarlos y eliminarlos. Otras actuaciones, que considera urgentes, son corregir la falta de mujeres en la programaci¨®n y establecer sistemas de predicci¨®n que se anticipen a los problemas.
Tambi¨¦n recomienda Equals que los asistentes incluyan el aviso de que no son humanos para que no se asocie su comportamiento con el de una persona, que dejen de incluir la voz femenina por defecto, el desarrollo de voces neutras y la creaci¨®n de una base de datos p¨²blica sobre g¨¦nero que, unida a una pol¨ªtica de incentivos, facilite la adopci¨®n de lenguajes inclusivos y realice un seguimiento de los sistemas que ahora existen.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.
Sobre la firma
M¨¢s informaci¨®n
Archivado En
- Altavoces inteligentes
- Inteligencia artificial
- Tecnolog¨ªa inal¨¢mbrica
- Dom¨®tica
- Altavoces
- Machismo
- Computaci¨®n
- Gadgets
- Sexismo
- Derechos mujer
- Vivienda
- Mujeres
- Relaciones g¨¦nero
- Prejuicios
- Inform¨¢tica
- Tecnolog¨ªas movilidad
- Problemas sociales
- Telecomunicaciones
- Tecnolog¨ªa
- Urbanismo
- Sociedad
- Comunicaciones
- Industria
- Ciencia