¡°Los algoritmos reproducen las desigualdades del mundo real¡±
La profesora de la Universidad de Nueva York Meredith Broussard se rebela contra la supremac¨ªa de la tecnolog¨ªa y analiza sus debilidades
Meredith Broussard quer¨ªa ser programadora. Se matricul¨® en Ciencias de la Computaci¨®n en la Universidad de Harvard y era una de las ¨²nicas seis mujeres de la promoci¨®n, pero ¡°el sexismo¡± la empuj¨® a cambiar de carrera. Hoy es profesora de Periodismo de la Universidad de Nueva York y autora del libro Artificial Unintelligence, en el que describe los problemas de la tecnolog¨ªa y los sesgos raciales y de g¨¦nero que se esconden tras los algoritmos. Broussard critica que el mundo digital est¨¢ reproduciendo las mismas desigualdades que la vida real y cree que parte del problema son las matem¨¢ticas, disciplina en la que se sustenta la programaci¨®n, que hist¨®ricamente ha sido liderada por hombres y que poco se ha preocupado por los problemas sociales.
Su lucha es demostrar que los ordenadores no son m¨¢s objetivos que las personas ni m¨¢s imparciales por el hecho de que su funcionamiento se base en preguntas y respuestas gestionadas bajo evaluaciones matem¨¢ticas. ¡°Nunca va a haber una innovaci¨®n tecnol¨®gica que nos aparte de los problemas esenciales que arrastra la naturaleza humana, por el simple hecho de que sus dise?adores son humanos¡±, cuenta a EL PA?S en conversaci¨®n telef¨®nica desde Nueva York.
Pregunta. ?Cu¨¢l es el principal mal al que nos conduce la tecnolog¨ªa?
Respuesta. Un d¨ªa empec¨¦ a darme cuenta de que la forma en la que la gente habla de la tecnolog¨ªa no tiene nada que ver con la realidad. Los estadounidenses son demasiado entusiastas con el uso de aplicaciones en todas las facetas de la vida: la contrataci¨®n de empleados, la conducci¨®n, los pagos o la elecci¨®n de su pareja. Esa fascinaci¨®n ha derivado en un dise?o muy pobre de la tecnolog¨ªa, donde importa mucho la premura y poco los valores. Si intentamos solucionar los grandes problemas sociales usando ¨²nicamente la tecnolog¨ªa, cometeremos los mismos errores que han impedido el progreso y la igualdad. Entender esos l¨ªmites nos ayudar¨¢ a tomar decisiones m¨¢s acertadas y ha llegado el momento de que la sociedad abra el debate de hasta d¨®nde tiene que llegar la tecnolog¨ªa.
P. ?Qu¨¦ est¨¢ fallando desde el punto de vista t¨¦cnico?
R. Los ordenadores son m¨¢quinas que funcionan gracias a millones de c¨¢lculos matem¨¢ticos que no responden a ning¨²n principio universal o natural, son s¨ªmbolos que han sido creados por personas y que responden a una construcci¨®n social. Son el resultado de millones de peque?as decisiones tomadas por diferentes ingenieros en determinadas empresas. El d¨ªa a d¨ªa est¨¢ inundado de tecnolog¨ªa, pero las personas no han cambiado. Solo porque los gobiernos compartan sus datos en plataformas abiertas no quiere decir que no haya corrupci¨®n. Las nuevas empresas ligadas a la econom¨ªa colaborativa tienen los mismos problemas laborales que se registraban al principio de la era industrial. Es ingenuo pensar que los datos por s¨ª solos van a solucionar los problemas sociales.
P. ?Podr¨ªa poner un ejemplo de esa desigualdad que reproduce el mundo digital?
R. Los algoritmos son un buen ejemplo. En 2016, varios periodistas de ProPublica detectaron que uno de los algoritmos que se estaba usando en el sistema judicial estadounidense no era imparcial y perjudicaba a los afroamericanos. La Polic¨ªa pasaba un cuestionario a todos los detenidos y sus respuestas se introduc¨ªan en un ordenador. Un algoritmo llamado Compas usaba toda esa informaci¨®n para predecir la probabilidad de que una persona volviera a cometer un crimen en el futuro, asign¨¢ndole una puntuaci¨®n.
Esa puntuaci¨®n se le pasaba a los jueces para ayudarles a tomar decisiones m¨¢s objetivas y basadas en datos a la hora de emitir sus sentencias. Con un resultado claro: los afroamericanos eran condenados a penas m¨¢s largas de c¨¢rcel que los blancos. Es f¨¢cil observar c¨®mo los creadores de ese algoritmo estaban tan cegados por el poder de la tecnolog¨ªa que no recayeron en el da?o que podr¨ªa causar. Si das por hecho que una decisi¨®n generada por un ordenador es m¨¢s justa e imparcial que la de una persona, dejas de cuestionarte la validez de ese sistema. Tenemos que plantearnos si estamos construyendo un mundo mejor o no.
P. Usted abandon¨® la carrera de Ciencias de la Computaci¨®n porque no soportaba el sexismo. ?Qu¨¦ situaciones ten¨ªa que afrontar?
R. Me cans¨¦ de lidiar con el sexismo un d¨ªa tras otro y me matricul¨¦ en Periodismo, donde la desigualdad de g¨¦nero no era tan pronunciada. Esa situaci¨®n apenas ha cambiado. Si miras los puestos m¨¢s altos entre los matem¨¢ticos ver¨¢s que no hay mujeres, no porque no sean capaces, sino porque hay estructuras de poder que est¨¢n manteniendo a las mujeres y a los negros fuera del poder en el escenario tecnol¨®gico. Tal y como cuento en mi libro, las STEM (siglas en ingl¨¦s de Ciencia, Tecnolog¨ªa, Ingenier¨ªa y Matem¨¢ticas) se asocian con una cultura de normas masculinizadas. La figura del cient¨ªfico se asocia con una actitud met¨®dica, objetiva, poco emocional o competitiva, caracter¨ªsticas que se asocian con los hombres. No lo digo yo, lo publicaron los investigadores Shane Bench y Heather Lench en 2015. Las mujeres sienten que no pertenecen a esos contextos.
P. Ese sexismo del que habla, ?podemos encontrarlo tambi¨¦n en los algoritmos?
R. En mi libro hablo de un caso concreto. En 2015 varios medios estadounidenses se hicieron eco de un experimento basado en la ciencia de los datos sobre c¨®mo tomar un buen selfi (en espa?ol, autorretrato). Se med¨ªan aspectos como si la fotograf¨ªa estaba enfocada o si se cortaba alguna parte del rostro. El investigador que llev¨® a cabo el experimento, Andrej Karpathy, que en ese momento era estudiante de doctorado en Stanford y ahora jefe de Inteligencia Artificial de Tesla, no se dio cuenta de que la mayor¨ªa de las im¨¢genes consideradas como buenos selfis correspond¨ªan a mujeres blancas j¨®venes.
Karpathy us¨® como principal indicador para su algoritmo la popularidad de la foto, el n¨²mero de likes que hab¨ªa generado en las redes sociales. Esa era la m¨¦trica para obtener mejor o peor puntuaci¨®n. Es un error muy com¨²n entre investigadores en el campo de la programaci¨®n: no tienen en cuenta los valores sociales y los comportamientos humanos que hay detr¨¢s de sus estad¨ªsticas. Este cient¨ªfico de datos cre¨® un modelo con una importante discriminaci¨®n; daba prioridad a las mujeres blancas y j¨®venes que responden a la definici¨®n heteronormativa de mujer atractiva.
P. ?Cu¨¢l cree que es la soluci¨®n para frenar esos sesgos?
R. Es necesario contratar a m¨¢s personas expertas porque los sistemas totalmente aut¨®nomos no son v¨¢lidos para lidiar con cuestiones sociales. Necesitamos grupos diversos creando tecnolog¨ªa. Puedes mirar a los que lideran las grandes tecnol¨®gicas y averiguar su visi¨®n de los temas sociales; simplemente no les importan. Mark Zuckerberg asegur¨® en su declaraci¨®n en el Congreso que Facebook desarrollar¨ªa herramientas de inteligencia artificial para lidiar con esos problemas, pero han sabido de ellos durante a?os y no han hecho nada. Manipulaci¨®n pol¨ªtica, racismo¡ Pueden contratar gente suficiente, no ser¨¢ por dinero.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.