?Para qu¨¦ necesita un portal de empleo conocer nuestro sexo?
La experiencia de una usuaria que recibi¨® mejores ofertas al cambiarse el g¨¦nero de su perfil vuelve a alertar sobre el peligro de sesgos discriminatorios en la inteligencia artificial
Todo empez¨® como una broma que ha terminado cuestionando otra vez la neutralidad de los algoritmos que seleccionan nuestros perfiles para lanzarnos ofertas. E. G., que prefiere no ser identificada, es doctora e investigadora. Pero esta primavera acaba su beca y se ha inscrito en portales de empleo. Cansada de recibir ¡°propuestas en femenino¡± de secretaria y administrativa, prob¨® a cambiar el g¨¦nero de su curr¨ªculum. A los pocos d¨ªas, empez¨® a recibir ofertas de trabajos de mayor responsabilidad y mejor pagados. La plataforma niega que el g¨¦nero se tenga en cuenta y atribuye el caso a un cambio en los comportamientos de b¨²squeda, pero los expertos en an¨¢lisis de datos advierten de que la discriminaci¨®n se da, no por la plataforma sino porque las m¨¢quinas aprenden de la realidad. E. G. plantea una pregunta clave: si no tienen en cuenta el g¨¦nero, ?por qu¨¦ es el primer dato que piden en la inscripci¨®n?
Caroline Ragot, directora de Producto de Infojobs, la plataforma donde se registr¨® el caso de E. G., asegura que el g¨¦nero y la edad son ¡°datos estad¨ªsticos comunes en los recursos humanos y que solo se utilizan con car¨¢cter interno¡±. ¡°No se usa como variable¡±, afirma tajante.
La directiva asegura que es la primera vez que registran un caso as¨ª entre 2,5 millones de candidaturas y lo atribuye a una modificaci¨®n en el patr¨®n de b¨²squeda de la candidata tras cambiar de g¨¦nero (¡°El algoritmo devuelve palabras claves introducidas en el buscador¡±, defiende), a una mayor oferta disponible los d¨ªas de la alteraci¨®n del curr¨ªculum, a un error, al uso de un perfil para buscar empleo para un amigo con criterios diferentes, a la incorporaci¨®n de puestos de trabajo muy demandados o a lo que denominan ¡°filtros colaborativos¡±, que permiten enviar propuestas que otros candidatos con perfiles similares hayan consultado y que hayan pasado inadvertidas para el usuario.
Ragot insiste en que Infojobs promueve las vacantes inclusivas y la igualdad as¨ª como las ofertas sin discriminaci¨®n de g¨¦nero, por lo que remiten a las empresas recomendaciones de buenas pr¨¢cticas que incluyen la descripci¨®n del puesto ofertado sin g¨¦nero o con terminaciones en masculino y femenino.
Este peri¨®dico ha mantenido durante una semana dos perfiles iguales de un hombre y una mujer. A lo largo de ese plazo, las ofertas recibidas han sido las mismas y solo han variado levemente al modificar el patr¨®n de b¨²squeda de uno y otro perfil.
Gemma Gald¨®n, doctora en pol¨ªticas p¨²blicas especializada en vigilancia, impacto social, legal y ¨¦tico de la tecnolog¨ªa, advierte de que la clave es que el sesgo est¨¢ en la realidad, no en la plataforma. ¡°El algoritmo aprende lo que ve, pero no corregirlo lo empeora¡±, advierte para defender la necesidad de eliminar el g¨¦nero y cualquier dato que pueda terminar en una discriminaci¨®n.
Esta socia, fundadora y directora de investigaci¨®n de Eticas Research & Consulting recuerda el caso de Tay, un robot creado por Microsoft para conocer m¨¢s sobre la interacci¨®n entre las computadoras y los seres humanos a trav¨¦s de Twitter. Tuvo que ser anulado a los pocos d¨ªas al reproducir mensajes racistas y machistas. ¡°Tay aprendi¨® lo peor, lo m¨¢s ofensivo¡±, reconoci¨® Diana Kelly, jefa de cibersegurdad de Microsoft en el reciente encuentro de Cybertech celebrado en Israel. ¡°Si no aprendemos inclusi¨®n, seguiremos creando exclusi¨®n¡±, afirm¨® para defender que la diversidad es ¡°m¨¢s efectiva y productiva¡±
¡°Hay que disponer de f¨®rmulas de correcci¨®n de los algoritmos indeseables porque estos recogen mecanismos de la sociedad¡±, recomienda Gald¨®n, quien recuerda que, a trav¨¦s de ingenier¨ªa inversa, se puede ¡°acompa?ar¡± a la m¨¢quina para evitar efectos indeseados como el que detect¨® su equipo en un portal de salud que termin¨® recomendando a las mujeres que se pinten las u?as.
Una investigaci¨®n de la Universidad Carnegie Mellon descubri¨® que las mujeres ten¨ªan menos posibilidades de recibir anuncios de trabajos bien pagados en Google porque los programas que se usan en los departamentos de contrataci¨®n de algunas empresas se inclinaban por nombres usados por hombres.
Amazon tuvo que cancelar su sistema de Inteligencia Artificial de selecci¨®n de personal al detectar graves sesgos que perjudicaban la contrataci¨®n de mujeres, seg¨²n un informe de Business Insider.
Y tambi¨¦n puede haber discriminaci¨®n racial, como ha comprobado el equipo de Gald¨®n al analizar un programa de asignaci¨®n de vivienda p¨²blica que buscaba una distribuci¨®n m¨¢s eficiente y termin¨® creando guetos.
El sesgo incluido por falta de formaci¨®n de los programadores o por la falta de seguimiento se puede ver agravado por la incorporaci¨®n de herramientas de reconocimiento facial, como le sucedi¨® a Jacky Alcine, un joven de Brooklyn que descubri¨® que Google Photos hab¨ªa clasificado como ¡°gorilas¡± una imagen suya con una amiga. La empresa rectific¨® tras la denuncia.
¡°Las empresas rectifican cuando se encuentran ante una crisis de reputaci¨®n, pero no se pueden escudar en la neutralidad del c¨¢lculo matem¨¢tico¡±, concluye Gald¨®n.
180 prejuicios definidos y clasificados
"Los sistemas de inteligencia artificial son tan buenos como la informaci¨®n que pongamos en ellos. Los datos malos pueden contener prejuicios impl¨ªcitos raciales, de g¨¦nero o idol¨®gicos. Muchos de esos sistemas de inteligencia artificial seguir¨¢n aprendiendo a utilizar los malos datos, haciendo que crezca el problema, Pero creemos que puede corregirse y los sistemas que lo hagan ser¨¢n los que prosperen", afirma IBM en su p¨¢gina de investigaci¨®n.
Eliminar los prejuicios y la discriminaci¨®n, seg¨²n esta compa?¨ªa, es "crucial para humanos y m¨¢quinas" por lo que defiende la necesidad de desarrollar sistemas confiables y "ense?arlos" con informaci¨®n imparcial.IBM calcula que existen m¨¢s de 180 prejuicios definidos y clasificados que afectan a los procesos de toma de decisiones, que se incorporan a los sistemas de inteligencia artificial y que hacen desconfiar de ellos.
La investigadora de IBM Francesca Rossi, en una presentaci¨®n de la compa?¨ªa, defiende que no toda la informaci¨®n parcial es mala (se puede usar para destacar fuentes confiables y relevantes) y que la perjudicial podr¨ªa ser eliminada en un plazo de cinco a?os por aquellas compa?¨ªas que sean m¨¢s sensibles con la importancia de la diversidad y los efectos de la incorporaci¨®n de prejuicios a los sistemas.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.