Margaret Mitchell: ¡°Las personas a las que m¨¢s perjudica la inteligencia artificial no deciden sobre su regulaci¨®n¡±
Una de las fundadoras del departamento de ¨¦tica de Inteligencia Artificial de Google, despedida en 2021, alerta de la falta de transparencia
Margaret Mitchell, nacida en Los ?ngeles, prefiere no decir la edad que tiene. No queda claro si es por coqueter¨ªa o porque vela por la privacidad y el buen uso de los datos. Podr¨ªa ser esto ¨²ltimo, ya que es una de las mayores expertas en ¨¦tica aplicada en la tecnolog¨ªa, y ha dedicado su carrera a reducir los sesgos de los algoritmos. Fund¨® y dirigi¨® el departamento de ¨¦tica de la inteligencia artificial (IA) en Google junto a Timnit Gebru, hasta que ambas fueron despedidas con pocos meses de diferencia hace tres a?os. Ahora supervisa el departamento de ¨¦tica en Hugging Face, es una de las 100 personas m¨¢s influyentes de 2023 seg¨²n la revista Time, y fue una de las conferenciantes m¨¢s esperadas en la Smart City Expo celebrada en las instalaciones de Fira de Barcelona.
Pregunta. ?C¨®mo reaccionan las tecnol¨®gicas cuando se advierte sobre problemas ¨¦ticos?
Respuesta. A las personas con las que trabajaba en Google realmente les apasionaba. Quiz¨¢ en un nivel m¨¢s elevado de la compa?¨ªa no estaba muy claro que lo que hac¨ªamos era importante, quiz¨¢ no lo entend¨ªan.
P. ?Por qu¨¦ la despidieron?
R. No fue porque alguien pensara que nuestros trabajos sobre ¨¦tica no eran adecuados. Estuvo m¨¢s relacionado con diferencias de poder, y sobre todo porque se trat¨® a mi col¨ªder [Timnit Gebru] como si fuese menos que sus compa?eros, por racismo. No pod¨ªa hacer como que no lo hab¨ªa visto o que no dir¨ªa nada. Fue parte de una discusi¨®n m¨¢s larga sobre poder y discriminaci¨®n sist¨¦mica.
P. ?A los desarrolladores de IA les importa la ¨¦tica?
R. Depende de qui¨¦n. He trabajado con muchos que siempre est¨¢n atentos a hacer las cosas bien. Pero la cultura del mundo del desarrollo tecnol¨®gico y la ingenier¨ªa tiende a favorecer un comportamiento alfa, donde quieres ser el primero en sacar algo o con mejor resultado. Esto puede desincentivar el trabajar en consideraciones ¨¦ticas.
Las perspectivas marginadas no se tratan como igual de importantes en el desarrollo de las tecnolog¨ªas
P. ?C¨®mo funcionan la discriminaci¨®n y los sesgos en los algoritmos?
R. Empieza desde el principio: si las decisiones no las toma un grupo inclusivo de personas diversas, no ser¨¢s capaz de incorporar diversidad de pensamiento en el desarrollo de tu producto. Si no se invita a la mesa a personas marginadas, los datos y la manera en que se recopilar¨¢n reflejar¨¢n la perspectiva de los que tienen poder. En las compa?¨ªas tecnol¨®gicas, tienden a ser, de forma muy desproporcionada, hombres blancos y asi¨¢ticos. Y ellos no se dan cuenta de que los datos que manejan no son completos, porque reflejan su visi¨®n. As¨ª, si las perspectivas marginadas no son tratadas como igual de importantes en el desarrollo de la IA, se crear¨¢n tecnolog¨ªas que no funcionar¨¢n para personas marginadas, o hasta les har¨¢n da?o. Por ejemplo, coches aut¨®nomos que no detectan a los ni?os, porque los datos que controlan no tienen en cuenta sus comportamientos m¨¢s ca¨®ticos o err¨¢ticos. Esto ya ocurr¨ªa con los airbags, que hac¨ªan m¨¢s da?o a las mujeres, porque hab¨ªan sido dise?ados sin tener en cuenta que hay personas con pechos. Hay que prestar atenci¨®n a las caracter¨ªsticas marginadas o que son tratadas como menores.
P. ?Cu¨¢les son los grupos m¨¢s discriminados en las IA?
R. Las mujeres negras, personas no binarias, gente de la comunidad LGTBIQ+ y personas latinas. Esto lo ves tambi¨¦n en qui¨¦n trabaja en las compa?¨ªas tecnol¨®gicas y qui¨¦n no.
P. ?C¨®mo se puede garantizar que la tecnolog¨ªa respetar¨¢ los valores ¨¦ticos?
R. Diferentes personas pueden tener diferentes valores, y algo que me ayuda a navegar en este problema es la idea del pluralismo de valores. Me preocupa la idea de que la IA debe tener un modelo general de valores, yo prefiero la idea de una IA enfocada en tareas y valores espec¨ªficos. Tienes que individualizar m¨¢s los modelos para tener en cuenta los valores en cada situaci¨®n, el contexto y las caracter¨ªsticas de los datos que recopilas.
Las compa?¨ªas tienen que revelar los detalles b¨¢sicos de sus datos de entrenamiento para la inteligencia artificial
P. ?Falta regulaci¨®n y transparencia?
R. Las compa?¨ªas tienen que revelar los detalles b¨¢sicos de sus datos de entrenamiento para las IA. Quiz¨¢ no hacerlos p¨²blicos para todos, pero s¨ª demostrar a auditores independientes que hay equidad en sus datos y que usan un contexto real, no estereotipado.
P. ?Qu¨¦ piensa de los que ped¨ªan una pausa en el desarrollo de IA?
R. Fue algo raro. Result¨® que ven¨ªa de un grupo que alertaba sobre los riesgos, pero lo que quer¨ªa era tener m¨¢s poder influenciando a los pol¨ªticos. No iba de hacer las cosas bien, iba de tener poder. Dec¨ªan que se ha llegado a un punto en el que la IA es beneficiosa, as¨ª que hab¨ªa que parar antes de que da?ara a la gente. Pero lo cierto es que ya hay gente que est¨¢ siendo da?ada, poblaciones no consideradas por ellos, y esto me hizo sentir asco. Claro est¨¢, ahora ellos tienen un sitio en la mesa para discutir sobre regulaciones.
P. ?Es optimista sobre el futuro de la IA?
R. No lo soy, no. Porque creo que la gente que m¨¢s probablemente se ver¨¢ perjudicada por la tecnolog¨ªa no est¨¢ en los puestos donde se habla de regulaciones, ni toma decisiones en las grandes tecnol¨®gicas. Hay cosas que se mueven, hace cuatro a?os nadie hablaba de ¨¦tica, pero esto no significa que de aqu¨ª a 10 a?os estemos mejor. Hay muchos caminos beneficiosos para la humanidad y no son los que se est¨¢n siguiendo.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y X o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.