¡°El modelo de aprovecharse de los datos para hacerse rico se est¨¢ agotando¡±
Inma Mart¨ªnez, experta en inteligencia artificial, cree que su regulaci¨®n pasar¨¢ por auditar los algoritmos para evitar que se produzcan abusos
El confinamiento soprendi¨® a Inma Mart¨ªnez (Valencia, 1964) en M¨¢laga, donde estaba montando un apartamento en el que recluirse a escribir su segundo libro. El primero, La quinta revoluci¨®n industrial (Deusto, 2019), trata sobre la comercializaci¨®n del espacio; el que ahora tiene entre manos est¨¢ relacionado con el sector del autom¨®vil. El nexo de uni¨®n entre ambos temas y Mart¨ªnez es la inteligencia artificial (IA), materia a la que se ha dedicado durante las dos ¨²ltimas d¨¦cadas. Fundamental en la carrera espacial, la IA ya se usaba en el dise?o de autom¨®viles mucho antes de que se empezara a hablar de veh¨ªculos aut¨®nomos.
La actividad profesional de Mart¨ªnez va m¨¢s all¨¢ de esas industrias. Tambi¨¦n asesora sobre IA y automatizaci¨®n a la Uni¨®n Europea y a varios pa¨ªses, entre ellos Reino Unido, donde vive desde hace casi 30 a?os. Su trabajo como consultora para el sector p¨²blico se ha centrado ¨²ltimamente en dos cuestiones: la discriminaci¨®n algor¨ªtmica (la que se produce cuando los sesgos de los sistemas perjudican a ciertas personas o colectivos) y la regulaci¨®n de la IA. A ello hay que sumarle ahora la exploraci¨®n de aplicaciones de esta tecnolog¨ªa para luchar contra el coronavirus. Sobre todos esos temas pivota otro, omnipresente en la era digital y transversal en el discurso de Mart¨ªnez: el derecho a la privacidad en el entorno virtual.
- P. ?Cree que la ciudadan¨ªa presta la atenci¨®n debida a lo que sucede con sus datos?
- R. El esc¨¢ndalo de Cambridge Analytica peg¨® muy fuerte en Reino Unido. All¨ª mucha gente sali¨® de Facebook. Los j¨®venes ni lo contemplan. Esta generaci¨®n se protege much¨ªsimo m¨¢s. Va a haber un cambio radical en c¨®mo se usan las redes sociales. Facebook quiere retar a Amazon: ha creado Shops, para que los usuarios vendan lo que quieran. Tiene que buscarse la vida: intent¨® convencer a los j¨®venes de que se abrieran una cuenta y fracas¨®, ya no va a poder monetizar tan bien los anuncios dirigidos. Ese modelo de aprovecharse de los datos de las personas para enriquecerse est¨¢ agot¨¢ndose.
- P. ?Estamos protegidos contra los sesgos de los algoritmos?
- R. Nos encaminamos a un cambio brutal. Las nuevas leyes de protecci¨®n de datos empiezan a comprender c¨®mo es realmente la vida online. Cuando voy al supermercado, una lata de tomate frito me cuesta lo mismo que a cualquiera. En cambio, si siempre vuelo en business class, las ofertas que me mostrar¨¢ una aerol¨ªnea para ir a un mismo destino ser¨¢n distintas que las que le aparezcan a alguien que acostumbre a volar en econ¨®mico. Eso no puede ser. Luego est¨¢n aquellos a quienes se les deniega un cr¨¦dito por el perfilado que se haya hecho de ellos, en ocasiones con imprecisiones importantes. Hay que parar los algoritmos abusivos.
- P. ?Cree que se est¨¢ actuando de forma adecuada? ?El Reglamento General de Protecci¨®n de Datos (RGPD) es su?ciente?
- R. EL RGPD no ha funcionado demasiado bien porque la manera en que se pide el consentimiento sigue siendo un horror. ?C¨®mo hemos dejado que hagan esto? El enfoque debe ser distinto: me da igual que tengas los datos o que no los tengas. De hecho, voy a asumir que no los tienes. Ahora, dime por qu¨¦ le pones anuncios de apuestas de f¨²tbol a esta persona que sabes perfectamente que tiene adicci¨®n al juego y a m¨ª no.
- P. ?Se re?ere a auditar el funcionamiento de los algoritmos?
- R. Exacto, el futuro de la regulaci¨®n pasa por auditar el empleo de algoritmos: habr¨¢ que justificar por qu¨¦ a ciertas personas se les pone unos entornos y a otras, otros distintos. Hay muchos casos reportados de discriminaci¨®n algor¨ªtmica, donde la web que t¨² ves es distinta a la que veo yo. Cuando los algoritmos no atacan a las personas, la UE hace la vista gorda. Pero cuando perjudican a la gente, eso no se puede dejar pasar. Bruselas no irrumpir¨¢ en las empresas para que les muestren sus c¨®digos: les exigir¨¢ que le expliquen por qu¨¦ los algoritmos hacen que las personas hagan esto o lo otro, qu¨¦ tipos de entornos presentan a los usuarios y que le demuestren que no son discriminatorios. Pero estas cosas llevan su tiempo, la Comisi¨®n Europea est¨¢ todav¨ªa en labores de investigaci¨®n previas a la legislaci¨®n.
- P. ?Qu¨¦ tipos de discriminaci¨®n algor¨ªtmica han detectado?
- R. Me he pasado a?os documentando para Bruselas este tipo de inferencias algor¨ªtmicas perjudiciales para los usuarios. Tengo identificados varios tipos de algoritmos que hay que regular. Primero est¨¢ la arquitectura de persuasi¨®n, la que explota vulnerabilidades de ciertos perfiles, por ejemplo bombarde¨¢ndote con anuncios de casas de apuestas si saben que tienes un problema de adicci¨®n. Luego est¨¢ la inferencia de perfil, es decir, el minado y rastreo de personas para crear perfiles sin su consentimiento a partir de datos recolectados de terceros. Fue muy sonado el caso de Facebook, que abri¨® cuentas a usuarios que jam¨¢s entraron en la red social. Tambi¨¦n est¨¢ la discriminaci¨®n algor¨ªtmica propiamente dicha, como ofrecer empleos de m¨¢s categor¨ªa a hombres en vez de mujeres o excluir de los procesos de selecci¨®n a candidatos con nombres ¨¢rabes o afroamericanos. Por ¨²ltimo, y muy en boga ¨²ltimamente, est¨¢ la radicalizaci¨®n de contenidos: algoritmos que, como ocurre en YouTube, te muestran contenidos relacionados que te llamen la atenci¨®n, independientemente de su car¨¢cter.
- P. ?C¨®mo est¨¢ ayudando la IA a combatir la pandemia?
- R. Quienes nos dedicamos a la IA entrenamos algoritmos. Pueden ser matem¨¢ticos (machine learning o aprendizaje autom¨¢tico) o lo que realmente va a revolucionar la IA, el deep learning (aprendizaje profundo), que se basa en redes neuronales. Primero creas la red neuronal con su capa, coges los datos, estableces qu¨¦ tiene que aprender y luego se entrena. Yo trabajo en inferencia relacional: tomo un segmento del algoritmo que alguien haya entrenado, lo traigo a otro entorno y le meto otros datos que no tengan nada que ver con los anteriores. Por ejemplo: puedes pedirle a un algoritmo de reconocimiento de voz que busque qui¨¦n se ha podido contagiar de coronavirus en un ¨¢rea determinada. Utilizar ese cerebro que has construido para trabajar en otras cosas, hacer que una red neuronal muy potente tenga aplicaciones alternativas: esa es la nueva gran potencialidad de la IA. Volviendo al coronavirus, se le puede pedir al algoritmo que mida ocasiones de contacto y ense?arle, por ejemplo, que estar a menos de dos metros de alguien no es problema si hay un tabique en medio o si quien est¨¢ tan cerca es tu pareja.
- P. ?Cree que las apps de trazado ser¨¢n ¨²tiles frente a un posible rebrote?
- R. Esas apps logran enriquecer los entornos de datos que tenemos porque ayudan a identificar puntos de contagio y a los supercontagiadores. Es muy importante ver qui¨¦nes son y cu¨¢l es el ratio de contagio. La gente es muy rutinaria: solemos pasar por los mismos sitios a las mismas horas. Mediante mediciones podemos saber que la media de interacci¨®n con extra?os en los lugares p¨²blicos es de, por ejemplo, tres personas por individuo. Los datos pueden servir para acotar a los supercontagiadores, los que se cruzan con 20 personas o m¨¢s. Saber d¨®nde est¨¢n y con qu¨¦ densidad de poblaci¨®n es m¨¢s probable encontrarlos puede ayudar a las administraciones a tomar medidas. No necesitamos saber qui¨¦nes son, sino su perfil para poder inferir.
- P. ?Conf¨ªa en que las apps de rastreo tengan un papel relevante en Europa?
- R. Estas apps funcionaron en Singapur o Taiw¨¢n en parte porque se combinaron con kits de detecci¨®n. Habr¨¢ que suplementar el trazado con otro tipo de herramientas, como los ox¨ªmetros, los medidores del ox¨ªgeno en sangre que usan diab¨¦ticos o asm¨¢ticos.
- P. Hay quien opina que las apps de rastreo son una fuente m¨¢s de invasi¨®n en la privacidad de las personas.
- R. Al final estamos hablando de una API descentralizada, al menos en el caso de las que se est¨¢n desarrollando en Europa. El que lo sabe todo sobre ti ahora mismo es tu operador m¨®vil. Y si tu m¨®vil funciona con Android, usas Gmail y el entorno de aplicaciones de Google, esa compa?¨ªa sabe m¨¢s de ti que nadie. Y no es la ¨²nica. ?Qu¨¦ cree la gente que han estado haciendo Apple, Telef¨®nica o Vodafone todos estos a?os?
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.