Esta inteligencia artificial me tiene man¨ªa
Los algoritmos reproducen los prejuicios de sus creadores y de la sociedad
Ha llegado el momento en que la inteligencia artificial toma decisiones que afectan a nuestras vidas: si se nos elige para un empleo, si se nos concede una hipoteca, si nos aceptan en una universidad, si podemos cruzar una frontera, si la polic¨ªa debe vigilarnos antes de que cometamos un delito, el precio de una p¨®liza sanitaria. El algoritmo se convierte en un juez que no da posibilidad de apelaci¨®n. ?Por qu¨¦ no me suben el l¨ªmite de la tarjeta de cr¨¦dito? Porque el ordenador me lo impide, dir¨¢ el empleado bancario, todav¨ªa de carne y hueso. ?Y puedo saber por qu¨¦ el ordenador lo impide? No intente averiguar c¨®mo funciona, ser¨¢ la respuesta.
Un gran debate en torno a la inteligencia artificial es si est¨¢ libre de prejuicios ¨Cser¨ªa lo esperable, pues un programa debe responder a datos objetivos¨C; o si, por el contrario, las m¨¢quinas reproducen nuestras man¨ªas, porque aprenden de nosotros, que las tenemos. La conclusi¨®n de quienes lo han estudiado es que, incluso cuando aprenden solas, la IA asume el sesgo de la sociedad que analizan. Sesgos hist¨®ricos de sexo, de clase, ¨¦tnicos, xen¨®fobos.
No es una especulaci¨®n: est¨¢ estudiado. Como en el informe Gender Shades, que en 2018 detect¨® que los programas de reconocimiento facial fallaban m¨¢s con mujeres y minor¨ªas ¨¦tnicas. El programa Watson, de IBM, se equivocaba hasta un 35% de las veces en mujeres negras, pero solo un 1% con hombres blancos. La compa?¨ªa cre¨® un equipo para corregir a Watson; redujo los errores, pero no ha conseguido erradicarlos.
Un asunto m¨¢s delicado: la inteligencia artificial aplicada a la defensa o al orden p¨²blico. En las guerras ya se utilizan drones que no solo se dirigen a un objetivo, sino que lo eligen. La polic¨ªa ya empieza a trazar perfiles de sospechosos mediante IA: trata de anticiparse a delitos que nadie ha cometido todav¨ªa.
Podemos perfeccionar los programas, liberarlos de nuestros arraigados recelos hacia lo diferente, pero hay un problema de base: qu¨¦ datos sirven para que la m¨¢quina aprenda a tomar decisiones. Si son los datos hist¨®ricos de criminalidad en EE UU, por ejemplo, arrastramos siglos de sesgo racista all¨ª, y no solo all¨ª. Si son los datos de solvencia econ¨®mica en cualquier lugar, se ver¨¢ el efecto de siglos de patriarcado.
Catherine D¡¯Ignazio, profesora de Ciencia en el MIT y autora del libro Data Feminism, lo tiene claro. ¡°Los datos no ser¨¢n neutrales jam¨¢s porque nunca son datos ¡®crudos¡¯. Est¨¢n producidos por seres humanos que vienen de lugares determinados, tienen sus propias identidades, sus historias particulares y que trabajan en instituciones concretas¡±.
La cuesti¨®n de fondo es si la inteligencia artificial tiene que responder a c¨®mo somos o, mejor, a c¨®mo queremos ser.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.