¡°Los ingenieros no est¨¢n preparados para resolver cuestiones ¨¦ticas¡±
Facebook le ha encargado a Joaqu¨ªn Qui?onero cerciorarse de que la inteligencia artificial usada por Facebook sea ¨¦tica y responsable. De perfil t¨¦cnico, lo primero que ha hecho es sumar a su equipo fil¨®sofos, polit¨®logos y artistas.
Joaqu¨ªn Qui?onero (Valencia, 1977) lleva meses creando y dirigiendo en Facebook un grupo centrado en los aspectos ¨¦ticos de la inteligencia artificial (IA). ¡°Me han encargado el liderazgo cient¨ªfico de nuestro trabajo en ¨¦tica y responsabilidad en IA¡±, dice en una entrevista con EL PA?S RETINA a su breve paso por Madrid. La misi¨®n de Qui?onero es proporcionar un marco ¨¦tico aplicable a todas las ¨¢reas y productos de la compa?¨ªa.
- P. ?En qu¨¦ consiste su nuevo rol?
- R. Estoy dedic¨¢ndome a investigar y construir un equipo para desarrollar una estrategia de ¨¦tica e innovaci¨®n responsable. Esta tiene cuatro pilares. El primero es asegurarnos de que en cada equipo de producto haya gente responsable que se comprometa a estudiar estos problemas y a rendir cuentas. El segundo es crear grupos de expertos para resolver los asuntos m¨¢s dif¨ªciles en el ¨¢rea de la IA, como la equidad, la justicia o la privacidad. El tercero es el trabajo con grupos externos mediante colaboraciones con universidades o con organizaciones de la sociedad civil. El cuarto pilar es la tecnolog¨ªa: por una parte, seguir invirtiendo en sistemas para comprender y analizar contenido problem¨¢tico y, por otra, construir herramientas que ayuden a los equipos a detectar sesgos, ya sea en los datos, en los algoritmos o en las intervenciones.
- P. ?C¨®mo enfoca el trabajo en torno al concepto de justicia?
- R. Lo m¨¢s importante es que el grupo de expertos sea multidisciplinar. Yo tengo un bagaje t¨¦cnico y quiz¨¢ mi punto de vista hace a?o y medio era algo ingenuo. Pensaba que todo se reduc¨ªa a matem¨¢ticas: comprender el sesgo de los algoritmos y escribir c¨®digo para resolverlo. Ahora mi visi¨®n es diametralmente opuesta. Me he dado cuenta de que el problema de la IA es casi una cortina de humo, una distracci¨®n. En realidad es un problema social, y no es nuevo: existe desde hace miles de a?os. Por eso he incorporado al equipo fil¨®sofos morales y perfiles de ¨¢reas como las ciencias pol¨ªticas o el arte. Trabajamos con preguntas que no tienen una sola respuesta correcta. Los ingenieros no est¨¢n preparados para resolver esas preguntas.
- P. ?C¨®mo funciona su equipo?
- R. Nos centramos en ejemplos muy concretos para no correr el riesgo de par¨¢lisis por an¨¢lisis. Por ejemplo, tenemos un producto de recomendaciones de puestos de trabajo y nos preguntamos si genera las mismas oportunidades econ¨®micas por g¨¦neros y edades. En el caso de los sesgos, que tu algoritmo no est¨¦ sesgado no garantiza que el producto no lo est¨¦. Hay que mirar cu¨¢l es el objetivo que est¨¢s intentando optimizar, c¨®mo est¨¢s consiguiendo los datos, qui¨¦nes son los humanos que generan etiquetas para esos datos y c¨®mo se van a utilizar esas predicciones. Hay que mirar la foto completa. La justicia o la equidad no son propiedades de un sistema sino procesos.
- P. ?Qu¨¦ cuesta m¨¢s?
- R. A menudo se dan dilemas. El algoritmo optimiza en base a los datos que ha recogido. Si entre ellos hay menos de un determinado grupo poblacional y deriva en un sesgo, no es aceptable. Sin embargo, inyectar discriminaci¨®n positiva para corregirlo supondr¨ªa que la precisi¨®n del algoritmo no sea igual para todo el mundo, ya que se estar¨ªa priorizando al grupo poblacional afectado por el sesgo. Solo puedes desviarte de estas propiedades en casos extremos y teniendo en cuenta las consecuencias.
- P. ?Qu¨¦ otra cosa se podr¨ªa hacer para corregir esos sesgos?
- R. Puedes jugar con opciones en torno al producto. En el caso del sistema que recomienda puestos de trabajo podr¨ªa plantearse darle menos importancia a la etnia percibida. Es decir, que no sea necesario poner el nombre de la persona. No es una soluci¨®n de IA sino una donde miras el problema de forma global.
- P. ?Qu¨¦ hay de la privacidad?
- R. Sigue siendo nuestro objetivo m¨¢ximo, lo m¨¢s importante. Despu¨¦s del desastre de Cambridge Analytica hemos aprendido muchas lecciones. Estamos invirtiendo m¨¢s si cabe en varias l¨ªneas de trabajo: transparencia en explicar qu¨¦ datos de los usuarios se utilizan y para qu¨¦, garantizar el cumplimiento de nuestros est¨¢ndares, avanzar en la tecnolog¨ªa para que no se tengan que enviar datos a la nube sino que todo pueda hacerse en el dispositivo...
- P. ?C¨®mo puede la gente confiar en Facebook si los ingresos de la red social dependen en gran medida de los anunciantes?
- R. El ¨¢ngulo m¨¢s fuerte acaba siendo la transparencia. Tambi¨¦n debemos explicar lo m¨¢s claramente posible c¨®mo funciona cada producto, por qu¨¦, con qu¨¦ datos¡ Estamos al principio de una larga aventura de mejorar much¨ªsimo el di¨¢logo y la transparencia con la gente.
- P. Facebook ha sido criticado por el modo en el que modera el contenido de odio, protegiendo a hombres blancos y no a ni?os negros. ?Puede ayudar la IA en esto?
- R. Es una ayuda indispensable, pero no puede sustituir a los humanos, dado que a¨²n est¨¢ lejos de comprender las sutilezas del mensaje y del contexto en que se desarrolla. Se ha podido eliminar cuatro millones de contenidos de odio en el primer trimestre de este a?o, del cual el 65% hab¨ªa sido identificado por nuestra tecnolog¨ªa antes de que se hubiera reportado.
- P. Los usuarios de Facebook reciben m¨¢s actualizaciones de sus amigos y menos de medios period¨ªsticos cre¨ªbles. ?Perjudica eso a la democracia y al derecho a la informaci¨®n?
- R. Las personas siempre nos dicen que encuentran poco valor en contenido con el que no tienen relaci¨®n. Por eso en 2018 se hizo un cambio en el algoritmo para promover las interacciones sociales por encima del contenido relevante dentro de la plataforma. En cuanto a procesos electorales, no somos la misma compa?¨ªa que en 2016. Hemos invertido para garantizar la seguridad, eliminando a los malos actores, retirando las cuentas falsas, reduciendo la distribuci¨®n de noticias falsas y trabajando con verificadores de informaci¨®n.
- P. Se ha acusado a redes sociales como Facebook de generar problemas de adicci¨®n. ?C¨®mo evitar estos problemas si el modelo de negocio de la compa?¨ªa depende de ello?
- R. La adicci¨®n a la tecnolog¨ªa nos debe preocupar a todos. Nuestro objetivo no es maximizar el tiempo que la gente pasa utilizando nuestros productos, sino que este sea valioso. Estamos construyendo herramientas que dan mayor control sobre la experiencia, como la posibilidad de limitar las notificaciones.
- P. ?Se plantea Facebook cambiar su modelo de negocio?
- R. [Mark] Zuckerberg est¨¢ a otras cosas. Entre ellas, c¨®mo mejorar la regulaci¨®n en internet en general. Para eso necesitamos ayuda.
- P. Pero eso se puede ver como un intento de evitar el escrutinio p¨²blico, de autorregularse para que otros no regulen.
- R. Categ¨®ricamente no, ese no es el objetivo. Formamos parte del Partnership on AI, una organizaci¨®n independiente que se centra en identificar los problemas m¨¢s dif¨ªciles y generar buenas pr¨¢cticas.
- P. Un investigador del MIT ha definido el Partnership on AI como ¡°una v¨ªa que las grandes empresas tecnol¨®gicas usan para manipular a la academia y evitar la regulaci¨®n¡±.
- R. El Partnership on AI esta compuesto por 100 organizaciones, de las cuales la mayor¨ªa son organizaciones sin animo de lucro. Su gobierno es aut¨®nomo y no depende de organizaciones industriales. Facebook no se opone a la regulaci¨®n: al contrario, hay muchas decisiones complejas alrededor de nuestros productos y tecnolog¨ªas que pensamos que Facebook no tiene que tomar. La sociedad debe afrontar esos retos, y por eso estamos a favor de la regulaci¨®n.
?tica y principios
Qui?onero sostiene que las Directrices ¨¦ticas para una IA fiable, de la Comisi¨®n Europea, son ¡°de gran utilidad¡±. De entre los siete requisitos que el documento menciona, el directivo destaca el de la robustez: asegurarse de que un sistema funcione bien.
¡°En la mayor¨ªa de los casos no es as¨ª en tecnolog¨ªas tan nuevas, ya sea porque los datos de entrenamiento se te han quedado viejos o porque ha habido un fallo de software¡±. En cuanto a transparencia, cree que esta debe ser para los productos de IA como la informaci¨®n nutricional en alimentaci¨®n: ¡°Hay que documentar qu¨¦ se ha hecho y c¨®mo¡±. Otro principio muy importante, dice, es la rendici¨®n de cuentas.
Detr¨¢s de los principios est¨¢ el modelo de IA. Se dice que EE UU mira por el r¨¦dito econ¨®mico; la UE por los ciudadanos y su privacidad y China por el control y la vigilancia. ?Cu¨¢l es el modelo de Facebook? Qui?onero no se moja: ¡°Como cient¨ªfico en el equipo de IA, estoy centrado en colaborar con la comunidad cient¨ªfica en avanzar el estado de esta tecnolog¨ªa¡±.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.