C¨®mo meter en cintura al algoritmo tendencioso
Repasamos las medidas que puede tomar la comunidad cient¨ªfica para que el reinado de las m¨¢quinas sea un poquito menos siniestro.
Te mereces un pr¨¦stamo? ?Eres el candidato perfecto para el trabajo al que aspiras? ?Est¨¢s en condiciones de pasar el control de pasaportes? Cada d¨ªa hay m¨¢s algoritmos tomando las decisiones que rigen nuestras vidas. Y cada d¨ªa saltan m¨¢s alertas sobre las limitaciones de sus criterios y la falta de transparencia en lo relativo a sus procesos de 'pensamiento'.
Asegurar que las predicciones de estos sistemas no acaban da?ando a colectivos en riesgo de exclusi¨®n es tambi¨¦n responsabilidad de quienes los est¨¢n creando. La comunidad cient¨ªfica ya est¨¢ buscando maneras de conseguir que el reinado de las m¨¢quinas sea un poco menos siniestro.
Una manera de paliar la tiran¨ªa de estos descerebrados sistemas de decisi¨®n es aumentar la transparencia en sus procesos de deliberaci¨®n. Al introducir mecanismos para cuestionar los resultados, arrojamos luz sobre las cajas negras que ocultan sus razonamientos y podemos detectar a tiempo sus potenciales sesgos.
- Conoce a tu algoritmo
En 2017, la Association for Computing Machinery (ACM) public¨® un manifiesto en defensa de la transparencia algor¨ªtmica y la rendici¨®n de cuentas. "Incluso los sistemas inform¨¢ticos bien dise?ados pueden manifestar resultados inesperados y errores, bien porque tienen fallos o porque sus condiciones de uso cambian e invalidan las asunciones sobre las que se bas¨® la anal¨ªtica original", advert¨ªan. En la misma declaraci¨®n, la ACM defini¨® siete principios necesarios para conocer a los algoritmos como a nosotros mismos.
- ?Consciencia. Los creadores de estos sistemas deben ser conscientes de la posibilidad de que haya sesgos en su dise?o, implementaci¨®n y uso.
- Acceso. Los reguladores deben favorecer la introducci¨®n de mecanismos para que los individuos y grupos negativamente afectados por decisiones algor¨ªtmicas puedan cuestionarlas y rectificarlas.
- ?Rendici¨®n de cuentas. Las instituciones deben ser responsables de las decisiones del algoritmo, aunque no puedan detallar c¨®mo se han tomado.
- Explicaci¨®n. Se debe promover entre las instituciones que emplean sistemas algor¨ªtmicos la producci¨®n de explicaciones sobre los procedimientos y las decisiones espec¨ªficas que se toman en este.
- Procedencia de los datos. Los datos empleados para el entrenamiento deben ir acompa?ados de una descripci¨®n de su origen y modo de recolecci¨®n.
- Auditabilidad. Modelos, datos y decisiones deben quedar registrados para que puedan auditarse cuando se sospecha alg¨²n da?o.
- Validaci¨®n y testeo. Las instituciones deben establecer tests rutinarios para evaluar y determinar si el modelo genera discriminaci¨®n.
- Cambio de perspectiva
Otra aproximaci¨®n para evitar que los algoritmos se conviertan m¨¢quinas de amplificar injusticias es ajustar sus sistemas de recompensa para que midan el ¨¦xito en sus tareas en funci¨®n de par¨¢metros m¨¢s benignos. Esto es lo que est¨¢ intentando Google con su generador de dibujos.
Los garabatos, trazados a trav¨¦s de una inteligencia artificial entrenada con dibujos hechos por humanos se presentaron de nuevo ante una audiencia de carne y hueso cuya ¨²nica misi¨®n era reaccionar ante ellos: si sonre¨ªan, se registraba una respuesta positiva, si frunc¨ªan el ce?o o parec¨ªan confundidos, se registraba una respuesta negativa.
Al a?adir esta variable a los datos empleados para entrenar a la red neuronal encargada de generar los dibujos y convertir su tarea en optimizar nuestra felicidad, se obtuvo una mejora en la calidad de las ilustraciones. "El feedback social impl¨ªcito en forma de expresiones faciales no solo puede revelar las preferencias de los usuarios, tambi¨¦n puede mejorar significativamente el rendimiento de un modelo de aprendizaje autom¨¢tico", sentencian los investigadores de Google en el paper que acompa?a a este proyecto.
- C¨®mo fracasar en el intento
Buena parte de la causa de este desbarajuste est¨¢ los datos. Si tus datos est¨¢n sesgados, tus resultados ser¨¢n sesgados. Si la sociedad que retratan es desigual, los resultados ser¨¢n desiguales. Sobre el papel, una posible respuesta a este problema de representaci¨®n, ser¨ªa eliminar las caracter¨ªsticas sensibles que descompensan las decisiones. Stijn Tonk, de GoDataDriven, hizo la prueba con un sistema de asignaci¨®n de cr¨¦ditos financieros y comprob¨® que el camino al algoritmo ecu¨¢nime es algo m¨¢s complejo.
"Nuestro clasificador no ten¨ªa acceso a atributos de g¨¦nero y raza y aun as¨ª acab¨® con un modelo sesgado contra las mujeres y la gente de color", adelanta. La raz¨®n de esto es que el problema de los datos es m¨¢s profundo que estas diferencias. "Nuestro dataset est¨¢ basado en el censo de 1994, un tiempo en que la desigualdad salarial era un problema tan grave como lo es hoy. Como era de esperar, la mayor¨ªa de los mejor pagados en los datos son hombres blancos, mientras que las mujeres y la gente de color aparecen con m¨¢s frecuencia entre los grupos de bajas rentas. Como resultado, acabamos con predicciones injustas, pese a haber eliminado los atributos de raza y g¨¦nero", explica Tonk.
Que la soluci¨®n no sea f¨¢cil, insiste el experto, no implica que no sea necesario encontrar la manera de implementarla: "Hacer predicciones m¨¢s justas tiene un coste: reducir¨¢ el rendimiento de tu modelo. Sin embargo, en muchos casos es un precio relativamente bajo a cambio de dejar atr¨¢s el mundo sesgado de ayer y predecir nuestro camino a un ma?ana m¨¢s justo".
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.