Nueva York regula el uso de algoritmos en los procesos de selecci¨®n para evitar prejuicios raciales o sexistas
Las empresas y las agencias de la ciudad que recurran a herramientas automatizadas deben someter esos programas a una auditor¨ªa externa para descartar sesgos discriminatorios
Nueva York es el banco de pruebas de leyes pioneras en EE UU, lo que en algunos casos equivale a decir tambi¨¦n en el resto del mundo. Entre las aprobadas recientemente, adem¨¢s de la que fija un sueldo m¨ªnimo para los repartidores y otra que proh¨ªbe la discriminaci¨®n laboral por razones de peso, una tercera, en vigor desde este mi¨¦rcoles, pone coto al uso descontrolado de la Inteligencia Artificial (IA). La nueva norma impone restricciones a la utilizaci¨®n de herramientas automatizadas de decisi¨®n de empleo (AEDT, en sus siglas inglesas) para impedir que el proceso de selecci¨®n de personal se vea condicionado por prejuicios sexistas y raciales. Los sistemas de decisi¨®n automatizados son popularmente conocidos como algoritmos.
La ley, la primera de este tipo en el mundo seg¨²n algunos expertos, estipula que los programas inform¨¢ticos de contrataci¨®n basados en el aprendizaje autom¨¢tico o la IA deben superar una auditor¨ªa realizada por una empresa externa para demostrar que est¨¢n limpios de sesgos racistas o sexistas. Una herramienta automatizada de decisi¨®n de empleo (AEDT) es un programa inform¨¢tico que utiliza el aprendizaje autom¨¢tico, el modelado estad¨ªstico, el an¨¢lisis de datos o la inteligencia artificial para ayudar sustancialmente a la contrataci¨®n, es decir, facilitar o agilizar la elecci¨®n de la persona adecuada seg¨²n el algoritmo.
Seg¨²n la ley de Nueva York, los empleadores o agencias de empleo que deseen utilizar AEDT deben asegurarse de que se ha realizado una auditor¨ªa de sesgos antes de utilizar la herramienta; publicar un resumen de los resultados de la auditor¨ªa en su sitio web, y notificar a los candidatos y empleados que el programa se utilizar¨¢ para evaluarlos, as¨ª como incluir instrucciones para solicitar un ajuste razonable de requisitos del puesto y capacidades personales. Asimismo, la empresa deber¨¢ publicar en su sitio web un aviso sobre el tipo y la fuente de los datos utilizados para la herramienta y la pol¨ªtica de conservaci¨®n de datos. Las empresas que utilicen software AEDT de terceros ya no pueden recurrir por ley a dichos programas si no han sido auditados.
Los programas de contrataci¨®n basados en IA ven¨ªan siendo objeto de escrutinio por presentar sesgos de racismo, sexismo y otros prejuicios, pero ha habido que esperar a la generalizaci¨®n de aplicaciones como ChatGPT y Midjourney para que los congresistas e incluso muchos ejecutivos de empresas tecnol¨®gicas se planteen una regulaci¨®n. Hasta ahora, el Congreso ha dado pocas pistas sobre cu¨¢les podr¨ªan ser esos l¨ªmites.
Las ciudades utilizan tecnolog¨ªas algor¨ªtmicas y automatizadas para tomar todo tipo de decisiones, desde determinar la distribuci¨®n del censo escolar hasta decidir si alguien debe quedar en libertad bajo fianza antes de un juicio. Pero hasta ahora exist¨ªan pocas salvaguardas para garantizar que estas tecnolog¨ªas tomen decisiones justas. Las primeras experiencias con herramientas de IA demostraron en los ¨²ltimos a?os que pueden ser categ¨®ricamente injustas: por ejemplo, a finales de la pasada d¨¦cada se descubri¨® que los algoritmos utilizados por las fuerzas del orden para evaluar y puntuar los riesgos de seguridad de menores o delincuentes fichados pueden afectar de forma negativa y desproporcionada a los afroamericanos, el grupo de poblaci¨®n m¨¢s susceptible, junto con el de los latinos, de ser arrestado o interpelado por la polic¨ªa.
Los expertos afirman que, aunque la nueva ley neoyorquina es importante para los trabajadores, sigue siendo muy limitada. Julia Stoyanovich, profesora de inform¨¢tica de la Universidad de Nueva York y miembro fundador del Grupo de Trabajo sobre Sistemas de Decisiones Automatizadas de la ciudad -el primero de este tipo en EE UU, establecido en 2018 para revisar el uso de algoritmos en los programas de la ciudad-, considera que es un comienzo importante, pero a¨²n muy limitado. ¡°Me alegro mucho de que la ley est¨¦ en vigor, de que ahora haya normas y de que vayamos a empezar a aplicarlas¡±, declar¨® la investigadora a NBC News. ¡°Pero tambi¨¦n hay muchas lagunas. Por ejemplo, la auditor¨ªa de prejuicios es muy limitada en cuanto a categor¨ªas. No tenemos en cuenta la discriminaci¨®n por edad, por ejemplo, que en la contrataci¨®n es muy importante, o por discapacidad¡±, a?adi¨®. La experta tampoco ve claro c¨®mo se aplicar¨¢ la ley ni en qu¨¦ medida, pero lo cierto es que la iniciativa de Nueva York contribuye a alimentar el debate sobre el desarrollo y el uso descontrolados de la IA.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.