Amazon prescinde de una inteligencia artificial de reclutamiento por discriminar a las mujeres
El sistema hab¨ªa sido entrenado con los perfiles de los solicitantes de empleo de los ¨²ltimos 10 a?os
Los expertos de Amazon empezaron a construir en 2014 un sistema de inteligencia artificial para revisar el curr¨ªculum de los postulantes de empleo. El objetivo era mecanizar la b¨²squeda de los mejores talentos. Esta herramienta, bas¨¢ndose en los archivos de los ¨²ltimos 10 a?os de la compa?¨ªa, aprendi¨® que los hombres eran preferibles y empez¨® a discriminar a las mujeres, tal y como han informado fuentes de Amazon a Reuters. Tras conocer el error, la compa?¨ªa ha decidido prescindir de este sistema.
La herramienta puntuaba a los candidatos de una a cinco estrellas, al igual que los clientes pueden calificar cualquier producto en la p¨¢gina web de la compa?¨ªa. ¡°Era como el Santo Grial, todo el mundo lo quer¨ªa", ha explicado a la misma agencia uno de los empleados a Amazon. "Quer¨ªan que fuera un sistema en el que introduc¨ªas 100 curr¨ªculums y seleccionara a los cinco mejores para contratarlos¡±, ha afirmado.
Pero en 2015 la compa?¨ªa se dio cuenta de que esta herramienta discriminaba a las mujeres candidatas a los empleos de desarrollador de software y otros puestos t¨¦cnicos en la compa?¨ªa. En su lugar, prefer¨ªa contratar a hombres. ¡°Esto es lo que ocurre cuando entrenas a un sistema con unos datos que piensas que no est¨¢n sesgados pero que realmente lo est¨¢n¡±, explica Nerea Luis Mingueza, estudiante de doctorado en Inteligencia Artificial y fundadora de T3chfest, un evento tecnol¨®gico en la Univerisidad Carlos III de Madrid.
El sistema de Amazon penaliz¨® a las postulantes cuyos curr¨ªculums inclu¨ªan la palabra ¡°mujeres¡±. Por ejemplo, a una chica que explicaba que hab¨ªa sido ¡°capitana de un club de ajedrez de mujeres¡±. Tambi¨¦n discrimin¨® a graduadas de dos universidades para chicas, seg¨²n Reuters.
La inteligencia artificial hab¨ªa sido entrenada con los perfiles de los solicitantes de empleo de los ¨²ltimos 10 a?os. La mayor¨ªa de postulantes en esa d¨¦cada, y por tanto de personas contratadas, eran hombres. ¡°Si ves que el sistema siempre est¨¢ clasificando hombres como mejores, tienes que preguntarte el por qu¨¦. No tienes que pensar que lo est¨¢ haciendo bien¡±, afirma Luis.
Cuando la compa?¨ªa se dio cuenta del error, edit¨® los programas para que dejaran de discriminar a las mujeres. Pero, seg¨²n las fuentes consultadas por Reuters, eso no era una garant¨ªa de que el sistema no volver¨ªa a fallar o a ser injusto a la hora de clasificar a los candidatos. Por ello, los ejecutivos perdieron la esperanza en el proyecto y la compa?¨ªa de Seattle acab¨® por abandonar el proyecto.
Los reclutadores de Amazon tuvieron en cuenta las recomendaciones del sistema para contratar a nuevos trabajadores pero nunca confiaron ¨²nicamente en esas clasificaciones, seg¨²n las mismas fuentes. Sin embargo, Amazon ha explicado que la herramienta ¡°nunca fue utilizada por los reclutadores de la compa?¨ªa para evaluar a los candidatos¡±. La compa?¨ªa no ha entrado a valorar si los responsables de recursos humanos tuvieron en cuenta de alguna manera las recomendaciones generadas por el sistema.
Brecha de g¨¦nero
Las principales empresas tecnol¨®gicas de los EE UU a¨²n tienen que reducir la brecha de g¨¦nero en la contrataci¨®n, que suele ser m¨¢s pronunciada entre el personal t¨¦cnico. Cristina Aranda, encargada de preventa e innovaci¨®n en Intelygenz y cofundadora de MujeresTech, se?ala que en este caso ¡°nadie se ha parado a pensar en que los hombres se expresan de forma diferente a las mujeres¡±. Seg¨²n explica, hay chicas que padecen el s¨ªndrome del impostor: ¡°Fue formulado por una psic¨®loga y consiste en no creerse capacitada para realizar determinadas tareas y en atribuir los logros a agentes externos y no a ellas mismas¡±.
La automatizaci¨®n en almacenes y en el comercio electr¨®nico ha sido clave para Amazon a la hora de afianzar su dominio en el mercado. Cada vez m¨¢s empresas intentan automatizar partes del proceso de contrataci¨®n. Es el caso de grandes compa?¨ªas como Hilton Worldwide Holdings Inc y Goldman Sachs Group Inc. Cerca del 55% de los gerentes de recursos humanos de Estados Unidos consideran que la inteligencia artificial ser¨¢ usada de forma habitual en su trabajo en los pr¨®ximos cinco a?os, seg¨²n una encuesta realizada en 2017 por la firma de software de talentos CareerBuilder.
Las expertas consultadas coinciden en que la inteligencia artificial puede ser ¨²til para los reclutadores como apoyo para aplicar un primer filtro. ¡°Trabaja muy bien con datos y realiza una tarea que a los humanos nos cansa mucho¡±, sostiene Luis. Adem¨¢s, estos sistemas pueden evitar los sesgos de un humano, seg¨²n subraya Ana de Prado, ingeniera y manager de equipo de inteligencia artificial de Terminus 7. Para evitar el error, De Prado considera que el algoritmo no deber¨ªa haber tenido en cuenta la variable sexo de la persona: ¡°Ya hay sistemas de reclutamiento en los que no es necesario incluir fotograf¨ªas, la edad o incluso el nombre de los postulantes¡±.
Muchos especialistas llevan a?os denunciando que la inteligencia artificial no solo no evita el error humano derivado de sus prejuicios, sino que puede empeorar la discriminaci¨®n y refuerza muchos estereotipos. Tambi¨¦n ha habido casos en los que un sistema ha discriminado a personas por razones de raza o incluso de orientaci¨®n sexual. ¡°Por ejemplo con los sistemas de computer vision [visi¨®n artificial] ha habido problemas para detectar a la gente negra porque han sido entrenados con gente blanca¡±, afirma Luis. Para ella, adem¨¢s de un an¨¢lisis exhaustivo de casos como el de Amazon, es primordial la formaci¨®n en diversidad y la inclusi¨®n de mujeres en los equipos que dise?an los sistemas.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.