¡®Software¡¯ para cazar a quienes discriminan por sexo en Silicon Valley
En Estados Unidos crecen las empresas dedicadas a detectar autom¨¢ticamente el sesgo por sexo o edad en los procesos de contrataci¨®n, ascenso o despido de los trabajadores
Entre los jefes de recursos humanos de las empresas tecnol¨®gicas abundan al menos dos prejuicios: contratar casi siempre a hombres y casi siempre muy j¨®venes. En Silicon Valley proliferan las acusaciones, claras o veladas, de sexismo y de ageism, el t¨¦rmino anglosaj¨®n para definir la discriminaci¨®n por edad, y los primeros sorprendidos son los directivos que se cre¨ªan hijos exclusivos de la meritocracia y libres de cualquier otro sesgo que alterara sus decisiones al contratar, promocionar o despedir a un empleado.
Sin embargo, como bien dice Howard Ross, autor del libro Every day Bias: Identifying and Navigating Inconsciuos Judgments in our Daily Lives (Los sesgos de cada d¨ªa: Un viaje por los juicios inconscientes de nuestra vida diaria):?¡°Si eres humano tienes prejuicios, es algo que ha quedado demostrado en m¨¢s de mil estudios durante la d¨¦cada pasada¡±. Seg¨²n Howard, el impacto de los sesgos inconscientes en la vida laboral es ¡°dram¨¢tico¡±.
Al menos para combatir el sesgo de sexo, en Silicon Valley han decidido poner coto a sus propios prejuicios. Y del modo en que mejor saben hacerlo: a trav¨¦s de algoritmos, software y tecnolog¨ªa de geolocalizaci¨®n.
Silicon Valley carga con el sambenito de contratar casi siempre a hombres y a los muy j¨®venes.
Las compa?¨ªas que se dedican a identificar y neutralizar sesgos en entrevistas de trabajo y evaluaciones de empleados est¨¢n en boga. Trabajan con una tecnolog¨ªa que procesa del lenguaje utilizado y las emociones, y?est¨¢n recibiendo importantes sumas de dinero en rondas de financiaci¨®n.
Una de ellas,?Textio, acaba de reacudar?1,5 millones de d¨®lares (1,35 millones de euros) con la promesa de identificar cualquier sesgo de g¨¦nero en las palabras que se emplean en las ofertas de empleo y en las evaluaciones a empleados antes de una promoci¨®n. Gracias a la precisi¨®n de su algoritmo, se ha comprobado que si en una oferta incluye la frase ¡°buscamos a un candidato con un historial laboral verificable¡±, se presentar¨ªan m¨¢s hombres a la convocatoria. En cambio, si se ped¨ªa un candidato ¡°con pasi¨®n por aprender¡±, responder¨ªan m¨¢s mujeres. Resulta dif¨ªcil llegar a esta conclusi¨®n si no es a trav¨¦s del cruce de datos e informaci¨®n de un software.
Las compa?¨ªas que se dedican a identificar y neutralizar sesgos en entrevistas de trabajo y evaluaciones de empleados est¨¢n en boga
Los empleadores de Silicon Valley han decidido no confiar en su criterio y dejar que un algoritmo corrija sus sesgos inconscientes de g¨¦nero. Por eso compa?¨ªas como Textio se est¨¢n convirtiendo en un gran negocio.?
Kanjoya tambi¨¦n se dedica a rastrear prejuicios. En esta empresa trabajan con una tecnolog¨ªa ¡°procesadora del lenguaje y de las emociones conscientes¡± desarrollada durante ocho a?os en colaboraci¨®n con ling¨¹istas de la Universidad de Stanford. Seg¨²n cuenta a EL PA?S su fundador y director,?Armen Berjikly, su algoritmo es tan fino que ha conseguido descubrir que la palabra assertiveness?¡ªautoafirmaci¨®n o firmeza¡ª se usa como en t¨¦rmino negativo en las evaluaciones a las mujeres, mientras que cuando se incluye en la evaluaci¨®n de un hombre no solo se consideraba un atributo positivo, sino que constituye el paso previo a un ascenso. Seg¨²n explica Berjikly, solo un sesgo inconsciente puede explicar que la misma palabra sea buena para unos y mala para otras.
¡°La tecnolog¨ªa de Kanjoya?no solo analiza las palabras [en s¨ª], tambi¨¦n la emoci¨®n e intenci¨®n que hay detr¨¢s. Esa informaci¨®n se combina con la decisi¨®n que ha sido tomada; es decir, si la persona evaluada ha sido despedida, ascendida o contratada. Dividimos los datos en segmentos de edad, etnia, g¨¦nero, geograf¨ªa¡ y se puede ver inmediatamente qu¨¦ ha representado un ¨¦xito para unos y un fracaso para otros. En un mundo ideal, sin sesgos, el lenguaje para justificar un ascenso o un despido deber¨ªan ser el mismo para todos. Sin embargo, casi nunca lo es. La gente espera unas cosas de los hombres y otras de las mujeres, y lo interesante es que ni siquiera se dan cuenta. Nuestro producto identifica y mide esos sesgos, y ese es el primer paso para eliminarlos de una empresa. No se puede arreglar lo que no se ha medido¡±.
Kanjoya, fundada en 2007, ha conseguido una financiaci¨®n de 20 millones de d¨®lares (18 millones de euros) de varios inversores, entre ellos D. E. Shaw. Entre sus clientes est¨¢n Twitter y Cisco.
Unitive.works, que?probablemente empiece a operar en junio, ser¨¢ otra de las empresas dedicadas a cazar prejuicios escondidos e inconscientes. Su misi¨®n es etiquetarlos y ubicarlos geogr¨¢ficamente en tiempo real, como una especie de Google Maps de los sesgos. Su tecnolog¨ªa se concentra en los procesos de reclutamiento y contrataci¨®n de personal, y tiene la capacidad de interrumpir el sesgo en el mismo momento en que aparece. Por ejemplo, en una entrevista de trabajo o en la redacci¨®n de una oferta de empleo.
Seg¨²n el diario The Wall Street Journal, el 20% de las grandes empresas estadounidenses est¨¢ entrenando a sus empleados en la identificaci¨®n de este tipo de prejuicios y en los pr¨®ximos cinco a?os podr¨ªan hacerlo el 50%. Google es una de las compa?¨ªas que ha decidido corregir sus prejuicios de puertas para adentro, usando un programa de entrenamiento interno para que sus empleados sean m¨¢s conscientes de sus sesgos de g¨¦nero, edad o nacionalidad.
Sin embargo, algunos consultores no creen que esta estrategia funcione. Joelle Emerson, directora y fundadora de Paradigm, una consultora estrat¨¦gica que trabaja con las empresas para que eliminen sus ¡°sesgos estructurales¡±, no recomienda que las compa?¨ªas traten de identificar sus prejuicios por su cuenta. ¡°Despu¨¦s de todo, por algo son inconscientes¡±, cuestionan. Armen Berjikly tampoco lo ve viable. ¡°La tecnolog¨ªa para hacerlo resulta dif¨ªcil de construir. A nosotros nos llev¨® ocho a?os dise?ar modelos perfectos y precisos para medir emociones. Por otra parte, es complicado hacer una revisi¨®n independiente de los sesgos por las mismas personas que est¨¢n expuestas o han sido afectadas o favorecidas por ellos¡±. Seg¨²n cuenta el fundador de Kanjoya,?en las empresas en que han identificado prejuicios contra las mujeres los propios empleados se lo han acabado agradeciendo. El motivo: llevaban tiempo sospechando de ciertas conductas pero no se las tomaban en serio ¡°por falta de datos¡± y ¡°por falta de independencia¡±. ¡°Nosotros le hemos proporcionado ambas cosas¡±, afirma Berjikly.
Cree, al igual que muchos en Silicon Valley que no hay religi¨®n m¨¢s all¨¢ de la tecnolog¨ªa. ¡°No hay nada m¨¢s fiable que la tecnolog¨ªa, porque en s¨ª misma ya es independiente respecto a mide; no tiene sesgos, no tiene agenda, no tiene intereses pol¨ªticos, y siempre puede ser mejorada¡±.
¡°Todos queremos trabajar en un ambiente justo donde seamos evaluados por cosas que se pueden controlar, y no por estereotipos. Si en una compa?¨ªa se usa una tecnolog¨ªa como la de Kamjoya?la gente no tendr¨¢ que creer que est¨¢ imaginando cosas y solo asumir¨¢ los hechos constrastados¡±. As¨ª explica Armen Berjikly el ¨¦xito de los programas que miden y neutralizan los sesgos inconscientes. Tambi¨¦n le sirve el argumento de la llegada de los millenials, la generaci¨®n m¨¢s diversa de Estados Unidos, al mercado laboral.
Se necesitan m¨¢s algoritmos 'cazaprejuicios'
Esto de cazar sesgos de g¨¦nero con un algoritmo no es en absoluto una excentricidad de los techies de California. El propio Berjikly rastrea los resultados de una encuesta realizada por PWC a casi 5.000 j¨®venes que acababan de incorporarse al mercado laboral de 75 pa¨ªses, entre ellos Espa?a. El 29% de las chicas dijeron que sent¨ªan que sus jefes estaban muy sesgados a favor de lo hombres cuando ten¨ªan que hacer promociones internas, mientras el 46% de los chicos consider¨® que los ascensos se realizaban en condiciones de igualdad. El 61% de los hombres entrevistados cre¨ªan que pod¨ªan llegar a lo m¨¢s alto de la empresa, algo que solo le pasaba por la cabeza al 50% de las mujeres. En la encuesta los empleadores brasile?os fueron vistos como los menos prejuiciados y los espa?oles fueron considerados los m¨¢s sesgados a favor de los hombres. Esta ¨²ltima l¨ªnea me la entrega Berjikly subrayada y en negritas: "Se necesitan algoritmos cazaprejuicios m¨¢s all¨¢ de Silicon Valley".
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.