Catalu?a busca humanizar la inteligencia artificial
Ante el auge de la IA en la toma de decisiones, la Autoridad Catalana de Protecci¨®n de Datos presenta una herramienta pionera en Europa que debe reducir el riesgo de un uso inadecuado
Uno de los primeros consejeros del Departamento de Derechos Sociales de la Generalitat recibi¨® hace a?os a una familia a quien no hab¨ªan concedido una subvenci¨®n para familias con hijos con discapacidad. La familia sobrepasaba la renta familiar l¨ªmite para obtener el subsidio y el sistema rechaz¨® autom¨¢ticamente la petici¨®n. ¡°Si superamos la renta es poque nos deslomamos a trabajar para ahorrar un dinero que proteja a nuestro hijo cuando nosotros ya no estemos para ocuparnos de ¨¦l¡±, reprocharon los padres. La conversaci¨®n acab¨® con una rectificaci¨®n del Departamento, que abon¨® finalmente la ayuda tras conocer la situaci¨®n familiar.
La historia a¨²n se recuerda en los pasillos de la Autoritat Catalana de Protecci¨®n de Datos (APDCat) y su trasfondo ha impulsado la entidad a humanizar los algoritmos y la inteligencia artificial. El organismo ha presentado este martes en el Parlament de Catalunya una metodolog¨ªa pionera en Europa para ¡°evitar la discriminaci¨®n y los sesgos¡± en aquellos casos en los que la inteligencia artificial tenga un papel fundamental a la hora de tomar decisiones. ¡°Tenemos que supervisar los sistemas de inteligencia artificial¡±, reclama Meritxell Borr¨¤s, presidenta de la APDCat.
Ante el auge imparable de la IA, el Consejo Europeo aprob¨® el a?o pasado la entrada en vigor de un reglamento que obliga a realizar una evaluaci¨®n de impacto en los derechos fundamentales en aquellos productos y servicios que utilizan la inteligencia artificial. Sin embargo, entiende la APDCat, ¡°no hay directrices en Europa de c¨®mo hacerlo¡±. La propuesta catalana propone un m¨¦todo concreto para cuantificar este impacto a trav¨¦s de un modelo de matrices.
Seg¨²n la teor¨ªa del riesgo, el impacto de los sistemas consta de dos dimensiones clave, la probabilidad y la gravedad, y su combinaci¨®n proporciona un ¨ªndice de riesgo de la IA. En funci¨®n de este ¨ªndice los proveedores tecnol¨®gicos deben intervenir para mitigar este riesgo hasta que sea ¡°residual¡±. ¡°Que los humanos tomen decisiones autom¨¢ticas en funci¨®n de la IA plantea diversas preocupaciones sobre la l¨®gica de la propia inteligencia artificial; y es importante conocer los efectos secundarios de esta tecnolog¨ªa¡±, insiste la Autoridad.
Los l¨ªmites a la IA pretenden anticipar el posible da?o a los usuarios, que ya ha obligado a varias administraciones a mover ficha. Un tribunal neerland¨¦s consider¨® en 2020 que el Gobierno del pa¨ªs utilizaba un sistema de an¨¢lisis que ¡°estigmatizaba y discriminaba¡± la ciudadan¨ªa para rastrear posibles fraudes al Estado; y en Nueva York (Estados Unidos) se regul¨® en 2023 el uso de algoritmos en los procesos de selecci¨®n para evitar ¡°prejuicios raciales o sexistas¡±. Tambi¨¦n en los EE UU, un an¨¢lisis del MIT Technology Review concluy¨® en 2021 que el sistema Compas, muy extendido en el pa¨ªs y que informa a los jueces del riesgo de reincidencia de los presos, discrimina a determinadas minor¨ªas, especialmente a los negros.
Los expertos tambi¨¦n alertan de aquellos procesos donde la IA llega de fuera. ¡°Los modelos entrenados fuera de Europa que llegan a nuestro continente no tienen las mejores garant¨ªas para desarrollarse aqu¨ª porque no est¨¢n pensandos en un contexto europeo¡±, defiende Alessandro Mantelero, profesor de la Universidad Polit¨¦cnica de Tur¨ªn (Italia), uno de los desarrolladores de la metodolog¨ªa catalana.