El sexismo oculto en la voz de Alexa
La Unesco advierte: "Si la cultura ense?a a la gente a equiparar a las mujeres con los asistentes, las mujeres reales ser¨¢n sancionadas por no comportarse como tales"
Los asistentes virtuales se han convertido en los ¨²ltimos a?os en una parte m¨¢s de nuestras hiperconectadas vidas, cada vez m¨¢s dependientes de la tecnolog¨ªa. Habitantes permanentes en m¨®viles, altavoces y ordenadores, nos ayudan a hacer la compra, adquirir un billete de tren, poner la m¨²sica que nos gusta o buscar el mejor restaurante para salir a cenar con los amigos. Incluso con capaces de detectar que nos ha dado un infarto por nuestra respiraci¨®n, seg¨²n un nuevo estudio experimental de los cient¨ªficos de la Universidad de Washington. Los asistentes virtuales completan por y para nosotros hasta mil millones de tareas al mes, seg¨²n un reciente informe de la Unesco, y es solo el comienzo; Juniper Research prev¨¦ que, para 2023, habr¨¢ en el mundo m¨¢s de 8.000 millones de asistentes de voz. Siri (Apple), Alexa (Amazon), Cortana (Microsoft), Aura (Movistar), Byxby (Samsung), Irene (Renfe) o Sara (Correos), entre otros muchos ejemplos, son los genios de la l¨¢mpara digitales, y casi todos tienen un rasgo en com¨²n: tienen instaladas voces femeninas por defecto.
A primera vista, puede parecer una circunstancia intrascendente, pero no lo es para las voces que alarman de que podr¨ªa favorecer la reproducci¨®n de los estereotipos de g¨¦nero. Es lo que afirma con rotundidad el documento de la Unesco, titulado Me ruborizar¨ªa si pudiera -era la respuesta que daba la asistente de voz de Apple, Siri, cuando un usuario la llamaba, por ejemplo, puta, hasta que se modific¨® en una actualizaci¨®n-. El organismo supranacional advierte: "Si la cultura ense?a a la gente a equiparar a las mujeres con los asistentes, las mujeres reales ser¨¢n sancionadas por no comportarse como tales".
En el entorno profesional las voces son masculinas
Para el experto en comunicaci¨®n Julio Garc¨ªa, la discriminaci¨®n no depende tanto de una cuesti¨®n de g¨¦nero como de lo que transmita. "Los que trabajamos estrategias de comunicaci¨®n con la voz y el lenguaje oral, buscamos voces agradables, bien timbradas, con registros, que comuniquen correctamente y persuadan al interlocutor", dice. Y parece que la voz femenina cumple los requisitos mejor que la masculina; los estudios de mercado apuntan a que son m¨¢s aceptadas por los usuarios para tareas de servicio por su afabilidad, cercan¨ªa y accesibilidad.
As¨ª lo corrobora la investigadora de la Escuela de Estudios Avanzados de la Universidad de Londres Rachel Adams. "La econom¨ªa del comportamiento determina que los consumidores de todos los g¨¦neros prefieren una voz femenina en esos contextos", admite. Y profundiza en la idea hasta dar con la clave del asunto: "El problema es que no cuestionamos este tipo de decisiones que acaban reproduciendo el estereotipo de g¨¦nero de la mujer como atenta y servicial".
En su ¨²ltimo trabajo sobre discriminaci¨®n y estereotipos de g¨¦nero en la inteligencia artificial, Adams incide en que los asistentes personales liberan al usuario de labores "superficiales" para que cuente con m¨¢s tiempo para hacer las tareas que son "realmente importantes", pero, al usar voces femeninas y actitudes tradicionalmente asociadas a la mujer (sol¨ªcita y servicial), se convierte tambi¨¦n en una valoraci¨®n directa del trabajo que tradicionalmente han realizado ellas: son las encargadas de las actividades residuales y menos relevantes. "Esto es todav¨ªa m¨¢s evidente si nos fijamos en los asistentes virtuales y los sistemas de inteligencia artificial que se usan en un entorno m¨¢s profesional, como el Watson de IBM", asevera la experta. Ni el nombre ni la personalidad ni la voz, propiamente masculinos, parecen casuales. Asociados a la banca o los seguros, "ellos" salen del ¨¢mbito dom¨¦stico para, en un alarde de inteligencia superior, identificar mercados y desarrollar tecnolog¨ªas de computaci¨®n cognitiva a trav¨¦s de la nube que puedan revolucionar los negocios. Seguros de s¨ª mismos, se comunican con frases cortas y definitivas, lo que les confiere mayor autoridad. Seg¨²n esta profesora y la propia Unesco, esto refleja, refuerza y propaga los sesgos de g¨¦nero, pero, adem¨¢s, ofrece pautas sobre c¨®mo deben responder las mujeres a las ¨®rdenes y c¨®mo pueden ser tratadas.
Esta ¨²ltima idea es uno de los puntos vertebradores del documento de la Unesco: los asistentes personales transigen o aceptan el acoso sexual y el abuso verbal, moldeando conductas perniciosas en torno a la cosificaci¨®n de la mujer y la violencia de g¨¦nero. Siri sorprende con un aterciopelado "en la nube todo es bonito" si le espetas que es muy sexi. Si le preguntas "?te gusto?", contesta con un ambiguo "contigo el tiempo se pasa volando". Cuando se le interroga sobre su situaci¨®n sentimental, niega tener novio, te ofrece ayuda para ligar y te propone frases como esta para conseguirlo: "Tus padres debieron ser contrabandistas astrales intergal¨¢cticos, si no ?qui¨¦n rob¨® las estrellas y las puso en tus ojos?". Y, al final, situaciones que, en un primer momento, parecen inofensivas, pueden acabar cargadas de una simbolog¨ªa de dominaci¨®n por la falta de rotundidad de ciertas respuestas. "Si se percibe como correcto hablar en t¨¦rminos obscenos con mujeres en el mundo virtual y esperar una respuesta afable, esto se acabar¨¢ trasladando al mundo real y tendr¨¢ consecuencias", advierte Adams.
Para evitarlo, nada mejor que dar voz a la mujer en un negociado mucho m¨¢s importante que el de asistir a los dem¨¢s, el de participar en la programaci¨®n de estos ayudantes de silicio. Un robot (o un asistente virtual), por m¨¢s que tenga apariencia humana, no puede saber lo que es llorar de risa con un amigo ni ser en s¨ª mismo machista. Sin embargo, s¨ª que puede serlo quien lo crea y, por tanto, la "educaci¨®n" que dicha m¨¢quina recibe, o sea, los datos de los que aprende, y en base a los cuales funciona y toma decisiones. De informaci¨®n original sesgada solo podemos obtener resultados parciales, por eso, si alimentamos el sistema con el hist¨®rico de los salarios de hombres y mujeres en el ¨²ltimo siglo y le pedimos que nos haga una revisi¨®n salarial para los espa?oles y espa?olas en 2019, no ser¨¢ descabellado que sus propuestas arrojen subidas salariales mayores para los primeros que para las segundas (aunque tengan los mismos puestos), perpetuando la tradicional brecha de g¨¦nero. La falta de conciencia o de cuidado desde el mismo dise?o del sistema puede marcar una gran diferencia.
Una voz sin g¨¦nero es posible
"Cortana, env¨ªa un email". "Alexa, hazme la compra". "Irene, quiero cambiar mi billete". "Aura, ponme el f¨²tbol". "Siri, quiero cenar sushi". Hace seis meses, Madrid amaneci¨® empapelada con carteles de diversos colores en los que se destacaban estos mensajes, entre los que se intercalaba la siguiente moraleja: "Los asistentes virtuales a los que les decimos lo que nos gustar¨ªa que hicieran por nosotros tienen voz/imagen femenina. A veces, los estereotipos de g¨¦nero est¨¢n tan cerca que cuesta verlos".
La Confederaci¨®n Nacional de Mujeres en Igualdad y la Asociaci¨®n de Hombres por la Igualdad de G¨¦nero (AHIGE) impulsaron esta iniciativa, llamada "Voces en igualdad" y lanzada por la agencia de comunicaci¨®n Tango?. El objetivo era, "m¨¢s que remover conciencias, provocar una reacci¨®n e iniciar una conversaci¨®n al respecto", comenta Alejandro Jarne, uno de los directores creativos de la empresa. Otro de los padres de la idea, Jes¨²s Flete, asegura que fue casi una revelaci¨®n: "Si nosotros no nos hab¨ªamos dado cuenta de esos estereotipos, a mucha gente le pod¨ªa haber pasado lo mismo". Y as¨ª era.
Las reacciones fueron muy polarizadas: muchos coincid¨ªan en que se hab¨ªan pasado por alto los roles que relacionaban a la mujer con labores de servicio en estos sistemas, pero "tambi¨¦n hubo una corriente contraria, que lo consideraba absurdo, que argumentaba que no lo entend¨ªan y que no ve¨ªan ning¨²n problema en esto". Eso s¨ª, en apenas doce horas, Correos present¨® una alternativa a su asistente personal Sara. "?O¨ªdo cocina! Nos dicen en recursos humanos que est¨¢n ya con el papeleo. As¨ª que Sara, ?tenemos nuevo fichaje a la vista! ?En breve os presentaremos a Alberto!", anunciaba en su cuenta de Twitter, con un enlace al hashtag #VocesEnIgualdad. Renfe tambi¨¦n respondi¨® al clamor popular y asegur¨® que buscar¨ªa un compa?ero de oficina para Irene. "Hay que estar con lo que est¨¢ ocurriendo a nivel social para tener una sensibilidad y pensar en los efectos y consecuencias que poseen nuestras acciones", comenta el responsable de comunicaci¨®n de AHIGE, Tom¨¢s Loyola.
Casi en paralelo, grupos de creativos y activistas mandaban un mensaje similar en Texas, en Estados Unidos, dentro del South by Southwest, uno de los mayores festivales del mundo sobre el impacto de la tecnolog¨ªa en la sociedad. El evento se convirti¨® en el escenario del lanzamiento de Q, la primera voz neutra para asistentes virtuales. Desarrollada por el equipo de la agencia Virtue y Copenhagen Pride, el proyecto, que acaba de recibir tres Leones de Bronce en el Festival Internacional de Creatividad de Cannes Lions, persegu¨ªa un objetivo similar: recordarnos que la tecnolog¨ªa da forma a nuestra vida y a nuestro entorno social, por lo que necesita asentarse sobre unos criterios ¨¦ticos m¨ªnimos.
De la mano de ling¨¹istas y tecn¨®logos, dieron con la frecuencia que define una voz neutral, que en un a?o esperan poder lanzar con c¨®digo abierto para que cualquier desarrollador o empresa pueda usarla libremente en sus asistentes virtuales, sea en un tel¨¦fono, en un coche o en un frigor¨ªfico inteligente. Pero ?es esta la soluci¨®n? "No se trata de imponer las voces neutrales", esgrime Emil Asmussen, uno de los creativos detr¨¢s de Q. Por el contrario, consiste en dar a las personas la posibilidad de elegir, "de hablar si no se sienten c¨®modas con que estos asistentes reproduzcan un determinado estereotipo de g¨¦nero o si no se sienten representadas por una voz femenina o masculina. Necesitamos voces neutras, pero tambi¨¦n mujeres Watsons y hombres Alexas y Siris".
Cuando las voces femeninas no pod¨ªan leer mapas
Pero, Siri, ?qu¨¦ piensas t¨² de todo esto? "Lo siento, no entiendo la pregunta". No, t¨² no, la Siri de carne y hueso. "Estamos exageradamente sensibles con el sexismo, se est¨¢ obviando una cuesti¨®n t¨¦cnica. Las voces masculinas en un contexto de ruido producen una serie de cacofon¨ªas que hacen m¨¢s dif¨ªcil la compresi¨®n de los mensajes y se prefieren las que tengan tonos m¨¢s agudos y arm¨®nicos, m¨¢s melodiosos, para que se facilite la comprensi¨®n", asegura la profesora vasca que pone voz a la asistente de Apple en espa?ol. En opini¨®n de Iratxe G¨®mez, existe, adem¨¢s, una justificaci¨®n biol¨®gica para que estemos mejor predispuestos para las voces femeninas: es la primera y m¨¢s constante exposici¨®n auditiva durante la gestaci¨®n en el vientre materno, de modo que "aprendemos a reconocer mejor las voces de las mujeres".
G¨®mez considera que no existe el m¨¢s m¨ªnimo conato de machismo en el universo de estos interfaces, aunque recuerda que s¨ª lo hubo en los or¨ªgenes, en los albores de los sistemas de navegaci¨®n. Cuando empezaron a ponerse en marcha en Alemania, hab¨ªa una "fort¨ªsima oposici¨®n a que las mujeres lanzaran estos mensajes, porque consideraban que no eran capaces de leer e interpretar mapas, o de dar ¨®rdenes para que las recibiera un hombre".
En cualquier caso, ?no podr¨ªa ser Siri m¨¢s tajante con los abusos verbales? "Las respuestas se han intentado programar para eludir la confrontaci¨®n y no para perpetuar un servilismo o una docilidad. Va m¨¢s por la l¨ªnea de: 'te voy a cortar r¨¢pido para que no sigas por ese camino". La Siri espa?ola asegura que los insultos est¨¢n registrados -"yo los he grabado", dice- y que hay respuestas taxativas para atajarlos pero, mientras se mantenga la correcci¨®n, los niveles de asertividad siguen estables, hay que rebasar los l¨ªmites de la obscenidad. Aunque lo cierto es que "me has dejado sin palabras" no parece muy categ¨®rico ni contundente cuando la calificas como gilipollas. "La sensibilidad de la m¨¢quina a determinadas expresiones se puede modificar y depende tambi¨¦n del nivel que le hayan otorgado", explica G¨®mez.
En este sentido, quien pone la voz en espa?ol a uno de los asistentes virtuales m¨¢s populares apuesta por darle la vuelta a la tortilla y por centrarse en la perspectiva diametralmente opuesta a la que ha suscitado tanta cr¨ªtica: pensar en que, gracias a estos sistemas, por fin las mujeres se perciben como una fuente fiable de informaci¨®n y como transmisoras de conocimiento. "Mi hijo, consciente de que su madre era la voz de Siri y de los GPS, me dijo cuando era peque?o: '?Mam¨¢!, ?t¨² por qu¨¦ eres tan lista y lo sabes todo?"
Programados en un mundo de hombres
No es raro que los asistentes virtuales piensen y se expresen como hombres, pues han sido creados en un mundo predominantemente masculino. Seg¨²n la Unesco, las mujeres representan solo el 12% de los investigadores del campo de la inteligencia artificial, y el 6% de los desarrolladores de programas inform¨¢ticos. Si no hay diversidad en los equipos, dif¨ªcilmente la habr¨¢ en la "mente" de la m¨¢quina, una perspectiva que comparte la investigadora Rachel Adams: "Hay que defender las cuotas para mujeres en cargos ejecutivos y de liderazgo dentro de los equipos de dise?o de la tecnolog¨ªa", opina la profesora de la Escuela de Estudios Avanzados de la Universidad de Londres. Tambi¨¦n recuerda que, en las ¨²ltimas d¨¦cadas, se ha producido un descenso notable en el n¨²mero de mujeres que cursan estudios de inform¨¢tica e ingenier¨ªa. Si en 1993 sumaban el 28% de los graduados en computaci¨®n de Estados Unidos, actualmente la cifra se ha reducido al 18%. De hecho, tal y como refleja el libro de Mar Hicks, Desigualdad programada, las mujeres fueron piezas clave en los primeros pasos de la computaci¨®n; fue al empezar a entenderse como un trabajo m¨¢s estrat¨¦gico e importante cuando estas fueron expulsadas sistem¨¢ticamente de ese mundo, y la programaci¨®n inform¨¢tica empez¨® a venderse como un trabajo de hombres.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.