Ariadna Font, creadora del ¨¢rea de ¨¦tica algor¨ªtmica de Twitter: ¡°Las cr¨ªticas no nos dan miedo¡±
La espa?ola es directora de ingenier¨ªa de la plataforma de aprendizaje autom¨¢tico de la red social y una de las fundadoras de META, su equipo de transparencia y rendici¨®n de cuentas
La espa?ola Ariadna Font (Barcelona, 1974), alias @quicola, lleg¨® a Twitter seis meses antes de la pandemia atra¨ªda por sus valores de ¡°transparencia, amabilidad, inclusi¨®n y cuidado del otro¡±. De un d¨ªa para otro, pas¨® de viajar sin parar a teletrabajar. Ven¨ªa de IBM, donde ejerci¨® los cargos de directora de desarrollo de productos y directora de dise?o en el ¨¢rea de datos e inteligencia artificial (IA) de IBM Watson y, anteriormente, directora de Tecnolog¨ªas Emergentes en IBM Research. Tambi¨¦n trabaj¨® en alguna startup, despu¨¦s de doctorarse en Lenguaje y Tecnolog¨ªas de la Informaci¨®n por la Universidad Carnegie Mellon (EE UU).
En Twitter, Font es directora de ingenier¨ªa de la plataforma de aprendizaje autom¨¢tico (una t¨¦cnica de IA). Su prop¨®sito es mejorar Twitter habilitando una IA ¡°avanzada y ¨¦tica¡±. Por eso, dirige los esfuerzos de la red social en torno a una IA responsable y fue una de las creadoras, hace m¨¢s de un a?o, del ¨¢rea de META (no confundir con el nuevo nombre de Facebook), su equipo de ¨¦tica, transparencia y rendici¨®n de cuentas. Esta entrevista transcurre a trav¨¦s de la pantalla del ordenador, entre Barcelona y Nueva York.
?En qu¨¦ consiste su trabajo?
Soy directora de ingenier¨ªa de la plataforma de aprendizaje autom¨¢tico, que est¨¢ presente en casi todas las ¨¢reas de lo que cada persona ve en Twitter: lo que aparece cuando entra y en qu¨¦ orden, qu¨¦ notificaciones recibe, los resultados de una b¨²squeda¡ Tambi¨¦n interviene en otros campos no tan visibles, como la detecci¨®n de tuits que puedan estar violando las pol¨ªticas de la plataforma. Nuestro prop¨®sito es cultivar una conversaci¨®n p¨²blica saludable y que las personas que est¨¢n construyendo la tecnolog¨ªa que hay detr¨¢s tengan las herramientas para lograrlo. Que, por dise?o y desde el principio, puedan hacerse las preguntas adecuadas en el momento adecuado. Ello implica crear un espacio seguro donde cada uno se pueda expresar libremente, en una cultura de respeto. Eso es complicado, y en mi trabajo se traduce en crear unos algoritmos lo m¨¢s abiertos posible, que sepamos c¨®mo impactan en la experiencia de usuario.
?C¨®mo?
Formando a las personas, compartiendo buenas pr¨¢cticas y documentando todo. Estamos dise?ando una nueva versi¨®n de la plataforma y tenemos la oportunidad de hacernos ciertas preguntas. Analizamos y evaluamos cada nueva funcionalidad, y clasificamos los riesgos asociados. Lo siguiente es realizar auditor¨ªas internas. Ya hemos hecho alguna, pero queremos hacerlo por sistema y de manera mucho m¨¢s rigurosa. Por otra parte, es clave c¨®mo aplicamos los resultados de las investigaciones que realizamos. Por ejemplo, hace un a?o, hubo comentarios de personas en Twitter sobre problemas con nuestro algoritmo de recorte de im¨¢genes. Tras una investigaci¨®n interna, vimos que t¨¦cnicamente el algoritmo era preciso y no encontramos ning¨²n sesgo. El problema era que un sistema automatizado y no el usuario decid¨ªa c¨®mo cortar su imagen. Nuestra conclusi¨®n fue que no deb¨ªamos decidirlo por el usuario, as¨ª que lo cambiamos.
Usted cre¨® el equipo META para velar por la responsabilidad y transparencia de la IA de Twitter. ?Cu¨¢l es su estrategia?
Queremos ser proactivos, no solo reactivos. Eliminar sesgos y prevenirlos. Trabajamos sobre todo en tres ¨¢reas: transparencia, que en el ¨¢mbito corporativo no se estila mucho; investigaci¨®n puntera y an¨¢lisis detallado, herramientas y est¨¢ndares, empezando por la gesti¨®n de riesgos. Queremos ser dignos de la confianza de los usuarios. No es muy com¨²n que se abran las cajas negras, pero las personas tienen que entender c¨®mo funciona esa IA y sentir que controlan su experiencia.
Una parte muy importante de nuestra tarea es comunicar qu¨¦ est¨¢ pasando dentro de esos sistemas y aumentar la transparencia y la explicabilidad. No compartimos solo lo que nos hace quedar bien. Al contrario, cuando no nos sale bien es cuando podemos aprender m¨¢s. Por eso uno de nuestros pilares es ayudar a que se sepa c¨®mo tomamos las decisiones algor¨ªtmicas y rendir cuentas p¨²blicamente. ?C¨®mo? Compartiendo los resultados y c¨®mo estamos mitigando casos de injusticia algor¨ªtmica. Y hacerlo no solo con un art¨ªculo cient¨ªfico sino con explicaciones que cualquiera pueda entender.
Acaban de hacerlo con una investigaci¨®n en Espa?a, Francia, Reino Unido, EE UU, Canad¨¢ y Jap¨®n que concluye que la plataforma favorece los tuits de la derecha pol¨ªtica y medi¨¢tica.
Es un ejemplo de muchos. Queremos generar espacios en los que los usuarios puedan sentirse seguros para poder criticar. Todo lo que aprendemos lo queremos usar para mejorar no solo nuestros algoritmos sino nuestro funcionamiento. Queremos ser abiertos y flexibles para cambiar la experiencia de usuario. Compartimos estas investigaciones para avanzar y para que los dem¨¢s puedan aprender de ellas. Que la comunidad acad¨¦mica y la industria puedan beneficiarse de ellas.
Habla de implicar a la comunidad en ese camino hacia la justicia algor¨ªtmica.
Nos tomamos muy en serio los comentarios de los usuarios de Twitter. No queremos simplemente comunicarnos de forma unidireccional a trav¨¦s de nuestro blog. Necesitamos una conversaci¨®n bilateral y escuchar a los usuarios y a la comunidad cient¨ªfica. En este sentido, estamos analizando cu¨¢l es la mejor manera de escuchar a todo el mundo. Tenemos varias iniciativas en las que los usuarios pueden poner etiquetas, decir qu¨¦ consideran aceptable o no.
Por otro lado, nos interesa much¨ªsimo trabajar con la comunidad cient¨ªfica y de hackers. Buscamos siempre la manera de abrir cualquiera de nuestros an¨¢lisis para que puedan hacer preguntas y aportar ideas. Desde Twitter somos conscientes de que no tenemos la capacidad de hacer o resolver todas las preguntas. Vemos a la comunidad cient¨ªfica como la extensi¨®n de nuestro equipo.
Han formalizado algunas colaboraciones tanto con redes de hackers ¨¦ticos como con acad¨¦micos.
Tenemos personas que dedican un d¨ªa a la semana a trabajar con nosotros y tambi¨¦n otras que hacen estad¨ªas de 3 o 4 meses. Este es el caso de Sarah T. Roberts, que est¨¢ investigando la agencia del usuario en las decisiones algor¨ªtmicas. Esto es algo que queremos hacer cada vez m¨¢s, colaborar de forma productiva e integrar la visi¨®n externa de estas personas.
?C¨®mo colaborar sin crear dependencias? ?C¨®mo evitar la sospecha de que Twitter quiere comprar a estas personas?
Es muy dif¨ªcil. Estar un d¨ªa a la semana con nosotros tal vez puede crear esa dependencia, lo cual es contrario a nuestro inter¨¦s. Su independencia es precisamente el beneficio para nosotros: su visi¨®n y retroalimentaci¨®n externa. Queremos esa comunidad cr¨ªtica que nos ayude a mejorar. Las cr¨ªticas no nos dan miedo. Sabemos que vamos a cometer errores. No existe la perfecci¨®n.
?Planean realizar auditor¨ªas externas?
Lo hemos hablado muchas veces y ser¨ªa lo ideal. El reto es poder hacerlo sin tener que compartir ni revelar datos de los usuarios. Tenemos que crear un entorno de datos con tecnolog¨ªas que preserven su privacidad. Es un paso previo que parece f¨¢cil, pero conlleva toda una infraestructura y mucho trabajo. Siempre que podemos abrimos el c¨®digo para que la gente lo pueda analizar, pero es un proceso que no es autom¨¢tico. Estamos aplicando lo que se conoce como ¡°privacidad diferencial¡± para, por ejemplo, analizar posibles sesgos sin usar datos demogr¨¢ficos. Para esto, entre otras cosas, hemos contratado a una referente, Lea Kissner, que dirige el equipo de privacidad.
?C¨®mo protege Twitter la privacidad de los usuarios?
La privacidad est¨¢ en nuestro ADN. Solo protegi¨¦ndola podemos promover una conversaci¨®n p¨²blica abierta y saludable. Creemos que la privacidad es un derecho fundamental, no un privilegio. Twitter permite a los usuarios tomar decisiones informadas sobre los datos que comparten con nosotros. Debemos ser transparentes y brindar un control significativo sobre qu¨¦ datos se recopilan, c¨®mo se utilizan y cu¨¢ndo se comparten. Seguimos invirtiendo m¨¢s en los equipos, la tecnolog¨ªa y los recursos para respaldar este trabajo cr¨ªtico.
Adem¨¢s de a Kissner, ha contratado a otras muchas mujeres. Para liderar META fich¨® a la especialista en ¨¦tica algor¨ªtmica aplicada Rumman Chowdhury, y presume de que en su equipo de liderazgo ya son un 50% de mujeres.
Siempre me he centrado en crear equipos diversos, algo especialmente relevante en el ¨¢rea de la IA responsable. Queremos atraer al mejor talento de la industria y contar con esa diversidad no solo en el g¨¦nero o la raza, sino en formaci¨®n, en cultura, en experiencias vitales y en formas de ver las cosas.
?Qu¨¦ est¨¢ haciendo su equipo para ponderar los algoritmos y evitar que premien contenido desinformativo, extremista o incendiario?
Cuando identificamos contenido que infringe las reglas de Twitter, tomamos medidas para controlar su cumplimiento y para que dicho contenido no se amplifique. Por ejemplo, podemos etiquetar o solicitar la eliminaci¨®n de tuits que violen nuestra pol¨ªtica de integridad c¨ªvica, la pol¨ªtica de desinformaci¨®n COVID-19 o nuestra pol¨ªtica de medios sint¨¦ticos o manipulados. Los tuits etiquetados tienen una visibilidad limitada en las b¨²squedas, las respuestas y las cronolog¨ªas, y el algoritmo de Twitter no los recomienda.
Asimismo, queremos darles a las personas un control significativo sobre su experiencia. Para ello pueden elegir si quieren seleccionar o no una cronolog¨ªa algor¨ªtmica, lo que significa que su cronolog¨ªa de inicio muestra los tuits de las cuentas que esa persona sigue en Twitter, as¨ª como recomendaciones de contenido en el que podr¨ªan estar interesados, en funci¨®n de las cuentas con las que m¨¢s interact¨²an.
La amplificaci¨®n algor¨ªtmica es menos una funci¨®n del algoritmo en particular y m¨¢s una funci¨®n de c¨®mo las personas interact¨²an con estos sistemas. Los algoritmos pueden reflejar y replicar sesgos sociales da?inos. Por eso, a medida que META investiga los algoritmos de Twitter, divulgamos p¨²blicamente los hallazgos y trabajamos para desarrollar soluciones.
?De qu¨¦ otras formas se podr¨ªa atajar estos problemas?
Damos prioridad a la toma de acci¨®n proactiva contra aquel contenido que incumple nuestras normas, incluido el contenido abusivo. Eso significa que las personas en Twitter no experimenten el abuso o da?o antes de que tomemos medidas. De hecho, el 65% del contenido abusivo que accionamos lo identificamos de forma proactiva para su posterior revisi¨®n humana, en lugar de depender de los reportes de los usuarios. Continuamos mejorando la precisi¨®n de nuestro aprendizaje autom¨¢tico para detectar mejor y tomar medidas sobre el contenido que infrinja nuestra pol¨ªtica. Como resultado, han aumentado un 142% las cuentas accionadas por contenido abusivo.
?Ser¨ªa posible un Twitter m¨¢s ¡®org¨¢nico¡¯?
Desde 2016, las personas en Twitter pueden alternar entre ¡°Inicio¡± (cronolog¨ªa de inicio clasificada algor¨ªtmicamente) y ¡°Tuits m¨¢s recientes¡± (donde los tuits m¨¢s recientes se muestran a medida que se publican). Pronto iniciaremos un experimento para permitir que sea m¨¢s f¨¢cil cambiar de una a otra. Esto permite que cualquier usuario de Twitter vea el contenido que le gusta de la forma que m¨¢s le convenga. Por otra parte, estamos trabajando para descentralizar la experiencia de Twitter a trav¨¦s de nuevas funciones y productos que brindan una experiencia m¨¢s personalizable y personalizada.
Puedes seguir a EL PA?S TECNOLOG?A en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
?Tienes una suscripci¨®n de empresa? Accede aqu¨ª para contratar m¨¢s cuentas.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.