Las decisiones basadas en inteligencia artificial no saben (o no quieren) abordar la discapacidad
Mientras se busca soluci¨®n para lo sesgos m¨¢s populares, como los que afectan a raza y g¨¦nero, las personas con discapacidad se ven afectadas por un problema de dif¨ªcil soluci¨®n
La era digital est¨¢ plagada de tiros que salen por la culata. Cuando TikTok decidi¨® limitar el alcance de los contenidos difundidos por personas con discapacidades visibles, no pretend¨ªa -o eso se desprende de los documentos a los que ha accedido Netzpolitik- da?ar los intereses del colectivo. Seg¨²n las filtraciones, el objetivo de este peculiar sistema de moderaci¨®n era proteger a estas personas del ciberacoso. Diez en intenci¨®n, cero en ejecuci¨®n. "Mientras los activistas claman por un internet y una visibilidad sin barreras, TikTok ha puesto barreras deliberadamente y sin que los afectados pudieran sospecharlo", sentencia la cabecera alemana.
En este caso, estamos ante una decisi¨®n deliberada, impulsada por un equipo de humanos. ?Qu¨¦ pasa cuando estos asuntos los dirime un conjunto de algoritmos que, por las puras limitaciones de la tecnolog¨ªa actual, tiene una visi¨®n a¨²n m¨¢s limitada y potencialmente parcial de la realidad?
El esc¨¢ndalo de TikTok llega tan solo unos d¨ªas despu¨¦s de que el AI Now Institute hiciera p¨²blico su informe sobre discapacidad, sesgos e inteligencia artificial: "Incluso cuando funcionan como pretend¨ªan sus dise?adores, estos sistemas se utilizan con frecuencia de modos que sirven a los intereses de aquellos que ya tienen poder estructural, a expensas de quienes no lo tienen", advierte el documento.
Sean accidentales o premeditados, estos sesgos no son inocuos, y en el caso de las personas con discapacidad adquieren mayor complejidad. "La imparcialidad para la gente con discapacidad es distinta de la imparcialidad para otros atributos protegidos, como la edad, el g¨¦nero o la raza", se?ala Sharin Trewin, de IBM Accessibility Research. Parte del problema es que este ¨¢mbito ha recibido menor atenci¨®n que los otros sesgos, pero esto tampoco es casual. "Una diferencia fundamental es la extema diversidad de maneras en que se manifiestan las discapacidades y en que la gente se adapta. En segundo lugar, la informaci¨®n sobre discapacidades es altamente sensible y no siempre compartida, precisamente por esa potencial discriminaci¨®n". La primera consecuencia de lo anterior aparece en la fuente de la inteligencia de las m¨¢quinas. "Muchos datasets de caras tienen etiquetas como el g¨¦nero y la raza, pero rara vez incluyen etiquetas de discapacidades", a?ade Anhong Guo, doctorando de interacci¨®n humano m¨¢quina de Carnegie Mellon.
Trewin coincide con Guo en su diagn¨®stico: "Cuando hablamos de los colectivos menos favorecidos en nuestra sociedad, la discapacidad entra muchas veces en el etc que viene despu¨¦s de raza y g¨¦nero. Teniendo en cuenta el n¨²mero de personas con discapacidad en el mundo y el hecho de que la mayor¨ªa experimenta alguna discapacidad en alg¨²n momento de su vida, este no tendr¨ªa que ser el caso". En este sentido, al garantizar que los sistemas de decisi¨®n obtienen resultados justos para los grupos mayoritarios, se dejan fuera minor¨ªas enormes. "Una pieza esencial de la soluci¨®n es dar explicaciones de las decisiones. Con una explicaci¨®n, podemos empezar a confiar en que el sistema es justo o hace algo para abordar el problema".
"La gente con discapacidad ha estado hist¨®rica y actualmente sujeta a una marginaci¨®n que les ha excluido sistem¨¢tica y estructuralmente del acceso al poder, los recursos y las oportunidades. Estos patrones de marginaci¨®n est¨¢n impresos en los datos que dan forma a los sistemas de inteligencia artificial", confirma el informe del AI Now Institute.
Un equipo de investigadores de Google encontr¨® un ejemplo de esto en un sistema automatizado de moderaci¨®n de conversaciones que clasificaba los textos que mencionaban discapacidades como m¨¢s "t¨®xicos". "Si tuvi¨¦semos m¨¢s gente con discapacidad trabajando en y con los equipos de ingenier¨ªa, tendr¨ªamos sistemas m¨¢s robustos y flexibles en todos los aspectos, no solo discapacidad", asegura Trewin. "Una cosa est¨¢ clara: sea humano o artificial, el de los sesgos es un asunto que necesita cuidadosa atenci¨®n".
?Qu¨¦ pasa si dejamos las cosas como est¨¢n? Exactamente eso: "En el nivel m¨¢s b¨¢sico, excluir la consideraci¨®n de la discapacidad del discurso sobre inteligencia artificial y sesgos significa que los esfuerzos para remediar esos sesgos no incluir¨¢n a las personas con discapacidad y que, en consecuencia, estas ser¨¢n m¨¢s susceptibles de experimentar da?os y marginaci¨®n".
Sin embargo, para Anhong Huo, tenemos que tener en cuenta que la de los sesgos no es una batalla que vaya a ganarse pronto. De hecho, en su opini¨®n se va a librar para siempre: "Siempre habr¨¢ sesgos, es una discusi¨®n continua en la que seguiremos teniendo que participar. Seg¨²n avanzamos, necesitamos ser m¨¢s receptivos y conscientes de estos problemas, incluirlos en los datasets y en los procesos de recolecci¨®n de datos, construcci¨®n e implementaci¨®n de modelos".
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.