Un m¨¦todo pionero para dise?ar algoritmos ¨¦ticos y responsables
Dos empresas espa?olas colaborar¨¢n para poner en marcha sistemas de inteligencia artificial socialmente aceptables
La inteligencia artificial (IA) se usa para recomendarnos pel¨ªculas o hacer videojuegos visualmente espectaculares. Pero tambi¨¦n para filtrar curr¨ªculos en la contrataci¨®n de personal, para calcular la solvencia crediticia de las personas, para prever las zonas de mayor criminalidad de las ciudades o hasta para estimar las posibilidades de que un ni?o vaya a sufrir malos tratos. Precisamente porque estos sistemas est¨¢n asumiendo tareas cada vez m¨¢s relevantes conviene procurar que no discriminen ni perjudiquen a la poblaci¨®n. Tratar de conseguirlo es complicado: hace falta estudiar muy bien todo el proceso de creaci¨®n del algoritmo, desde su dise?o te¨®rico hasta la base de datos con la que se nutre, pasando por la forma de implementarlo o las personas a las que afectar¨¢. Es un proceso complejo y costoso, y precisamente por eso brilla por su ausencia en la inmensa mayor¨ªa de los casos.
Dos empresas espa?olas de referencia en el sector se han propuesto dise?ar sistemas de inteligencia artificial que cumplan esos est¨¢ndares en los llamados ¨¢mbitos de alto impacto (salud, empleo, educaci¨®n, seguridad, servicios sociales o justicia). Se trata de Eticas, especializada en auditar algoritmos, y la desarrolladora de software Sngular. Ambas firmas emplear¨¢n una metodolog¨ªa pionera, in¨¦dita en este pa¨ªs, que ralentizar¨¢ los tiempos de entrega, ya que se evaluar¨¢n y tratar¨¢n de pulir los posibles efectos negativos del sistema desde antes de que se ponga en marcha, pero que garantizar¨¢ unos resultados m¨¢s limpios.
?C¨®mo lo har¨¢n? La idea de fondo es aportar una visi¨®n m¨¢s amplia de la que tiene un ingeniero, que no necesariamente est¨¢ formado para entender el contexto en el que se va a aplicar una herramienta que tenga impacto social. Eso se consigue con equipos multidisciplinares. Se necesitan ingenieros, claro, pero tambi¨¦n trabajadores sociales, juristas o fil¨®sofos. ¡°Para construir un edificio hacen falta arquitectos, alba?iles, electricistas, fontaneros¡ No se le puede confiar todo el trabajo al electricista. En la tecnolog¨ªa de alto impacto lo estamos haciendo¡±, ilustra Gemma Galdon, consejera delegada de Eticas.
La UE es consciente de que los algoritmos de alto impacto necesitan ser mirados con lupa. Bruselas prepara una directiva que, previsiblemente, contemplar¨¢ medidas de supervisi¨®n para los sistemas de IA que se apliquen a actividades especialmente sensibles, aquellas en las que se debe exigir un margen de error algor¨ªtmico m¨ªnimo. Si finalmente se incluyen medidas coercitivas, posiblemente las tecnol¨®gicas empiecen a dedicarle m¨¢s tiempo y recursos a pensar qu¨¦ posibles externalidades negativas pueden propiciar sus algoritmos.
En Espa?a, la Secretar¨ªa de Estado para la Digitalizaci¨®n y la Inteligencia Artificial trabaja en la confecci¨®n de la Agencia de Evaluaci¨®n de Algoritmos. Este organismo, creado por una petici¨®n expresa de M¨¢s Pa¨ªs para apoyar los presupuestos de 2022 (aunque la secretar¨ªa de Estado ten¨ªa ya previsto desarrollar un ente similar), se encargar¨¢ de clasificar el riesgo que presenten los algoritmos y tendr¨¢ capacidad sancionadora.
El pasado viernes, @MasPais_Es registramos una enmienda a los Presupuestos Generales del Estado para pedir una Agencia Estatal de Auditor¨ªa de Algoritmos. Voy a intentar explicar en este hilo (laargo) el sentido de la propuesta: ?? pic.twitter.com/0rQAo8AVna
— H¨¦ctor Tejero - ??? #HopePrevails (@htejero_) November 8, 2021
La intenci¨®n de Eticas y Sngular es desarrollar de cero algoritmos que cumplan con creces esos est¨¢ndares. Para ello combinar¨¢n la auditor¨ªa con el dise?o t¨¦cnico. ¡°Cuando hacemos una auditor¨ªa algor¨ªtmica analizamos todo el ciclo de vida del algoritmo, desde la elecci¨®n de las bases de datos del entrenamiento hasta la implementaci¨®n de un sistema algor¨ªtmico¡±, explica Galdon. ¡°Tenemos hasta 20 puntos de identificaci¨®n de sesgos e ineficiencias y hacemos pruebas en cada uno de ellos para asegurar que no se produzcan. Cuando identificamos esas ineficiencias las subsanamos, intervenimos incorporando datos sint¨¦ticos y normas dentro de los algoritmos para asegurar que esa disfunci¨®n, ineficiencia o sesgo no se reproduce¡±.
Un algoritmo ¨¦tico, paso a paso
Un ejemplo demasiado com¨²n de los sesgos de los que habla Galdon es la discriminaci¨®n de las mujeres por parte de los sistemas algor¨ªtmicos. ¡°Es el caso del ¨¢mbito bancario: como hist¨®ricamente las mujeres no hemos sido las representantes econ¨®micas de las familias, en las bases de datos de entrenamiento de los algoritmos bancarios estamos infrarrepresentadas¡±, indica la experta. ¡°Cuando esos datos se toman sin ser conscientes de que existe ese sesgo hist¨®rico, lo que hacen es indicar al algoritmo que tiene que reproducir esa din¨¢mica. Por lo tanto, la herramienta entiende que a las mujeres se nos tiene que asignar m¨¢s riesgo y los hombres siguen sobrerrepresentados en la bolsa de clientes de los bancos¡±.
Tras ese estudio previo entrar¨ªa en acci¨®n Sngular. Esta tecnol¨®gica, que debut¨® en Bolsa a finales de a?o y que instaur¨® el teletrabajo por defecto entre sus 900 empleados, se ocupar¨ªa del desarrollo t¨¦cnico del sistema de IA. ¡°Trabajar con Eticas nos aportar¨¢ poder aplicar metodolog¨ªas muy enfocadas en la privacidad y en todos esos aspectos regulatorios que se est¨¢n empezando a contemplar, algo en lo que nosotros cojeamos¡±, dice Nerea Luis, responsable de IA de Sngular.
No existe una forma perfecta de dise?ar un algoritmo, pero s¨ª est¨¢ claro cu¨¢l es el proceso que deber¨ªa seguirse. Para Galdon, primero deber¨ªa definirse bien el problema que se quiere abordar. El siguiente paso deber¨ªa ser entender cu¨¢les son los puntos de datos que pueden ayudar a resolverlo. ¡°Hay un ejemplo del que se ha hablado bastante: un algoritmo de priorizaci¨®n hospitalaria que se hab¨ªa entrenado con datos financieros porque lo desarroll¨® una compa?¨ªa de seguros. A menudo se usan los datos que se tienen y no los que se necesitan. ?Qu¨¦ podemos hacer? Conocer bien cu¨¢les son los datos que me permiten tomar una buena decisi¨®n y seleccionar los inputs adecuados¡±.
Despu¨¦s de la selecci¨®n, otro reto importante es ver si hay sesgos hist¨®ricos en esos datos. Por ejemplo, si hay infrarrepresentaci¨®n de alg¨²n colectivo: mujeres, hombres, personas no blancas, ni?os, mayores, habitantes de ciertas zonas, etc¨¦tera. ¡°Las capas de discriminaci¨®n que nos podemos encontrar dentro de los algoritmos son much¨ªsimas; identificarlas es clave para poder mitigarlas¡±, subraya Galdon. ¡°Por ejemplo, si sabemos que nuestra base de datos tiene condicionantes hist¨®ricos que podr¨ªan llevar al algoritmo a tomar decisiones injustas sobre esos perfiles, tenemos mecanismos para solventar eso. Pero si no lo hemos identificado, ese problema no se solventa y el sesgo se reproducir¨¢¡±.
Puedes seguir a EL PA?S TECNOLOG?A en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.