Privacidad y datos en un mundo de algoritmos: riesgos y l¨ªmites
La avalancha de informaci¨®n digital ha permitido mejoras sustanciales en la vida de muchos ciudadanos, pero no hay que descuidar las amenazas a la privacidad y los derechos humanos
Un esc¨¢ner facial en el aeropuerto no reconoci¨® la diferencia entre Osama bin Laden y Winona Ryder. Huellas digitales alteradas ayudan a una mujer a burlar los controles fronterizos. Una empresa es multada por compartir datos de millones de usuarios sin consentimiento. Un algoritmo discrimina contrataci¨®n de mujeres.?Seguramente estos titulares recuerden a alguna noticia similar le¨ªda antes.
Por un lado, sabemos que los datos son la d¨ªnamo de la econom¨ªa digital. Compartirlos entre diferentes proveedores ¡ªp¨²blicos y privados¡ª de forma interoperable promete revolucionar servicios que est¨¦n hechos a la medida de las necesidades de cada persona y minimizar el margen de error de forma costo-eficiente. En servicios sociales, por ejemplo, ha permitido hacer m¨¢s eficiente la asignaci¨®n de prestaciones a los beneficiarios que verdaderamente lo necesitan, as¨ª como que la persona tenga mejor control sobre el cuidado de su salud o su ahorro para el retiro.
Sin embargo, es frecuente que las personas no tengan idea alguna de c¨®mo su perfil, geolocalizaci¨®n, rostro o historial de visitas en l¨ªnea terminan en manos de proveedores que ¡°conocen sus intereses¡±. Y es que, aunque aceptar los t¨¦rminos de privacidad y de compartir datos sea una precondici¨®n normalizada para descargar una aplicaci¨®n o visitar un sitio, estos suelen explicarse en un lenguaje complejo de entender entre audiencias no t¨¦cnicas.
En el campo de la biometr¨ªa, poder identificar a una persona sin su autorizaci¨®n, a trav¨¦s de su tono de voz, la forma en la que escribe o incluso su forma de caminar, supone riesgos considerables sobre derechos fundamentales como la privacidad y potencial discriminaci¨®n algor¨ªtmica. ¡°Cuando tu cuerpo es tu identidad, este puede tambi¨¦n delatarte o revelar cosas que preferir¨ªas no compartir¡±, se?ala la eticista Gemma Galdon Clavel.
Adicionalmente, hay un riesgo de seguridad, si los datos sensibles son vulnerados sin candados de encriptaci¨®n. As¨ª lo muestra un reciente caso que expuso los datos de huellas digitales, reconocimiento facial, nombres de usuarios y contrase?as de m¨¢s de un mill¨®n de personas, dentro de una base de datos p¨²blica en Reino Unido. De acuerdo con el medio de comunicaci¨®n, la exposici¨®n responde a la falta de protecci¨®n y encriptaci¨®n de la base de datos por la empresa que la resguardaba.
Por eso, el Banco Interamericano de Desarrollo (BID) dedic¨® una nueva serie de publicaciones para analizar el avance del marco regulatorio en ¨¦tica de datos, advertir cu¨¢les son los riesgos de usar tecnolog¨ªas como la inteligencia artificial (IA) con base en datos personales y proponer medidas para mitigarlos. Su edici¨®n m¨¢s reciente permite entender a trav¨¦s de un c¨®mic, cu¨¢les son los l¨ªmites de la biometr¨ªa y acciones de contrapeso.
Cuando tu cuerpo es tu identidad, este puede tambi¨¦n delatarte o revelar cosas que preferir¨ªas no compartir
Para Galdon Clavell, la aplicaci¨®n de tecnolog¨ªas en datos biom¨¦tricos es una opci¨®n que debe usarse con cautela. Una alternativa, sugiere, es mejorar la interoperabilidad y calidad de los datos usados, para poder verificar informaci¨®n entre instituciones sin tener que acceder a datos personales. Alternativamente, recomienda utilizar la verificaci¨®n de identidad con cadenas de bloques (blockchain) o bien combinar identificadores externos, a trav¨¦s de contrase?as.
Este tipo de pasos tambi¨¦n ayuda a generar mayor confianza ciudadana en la era digital, y esto aplica tanto a servicios p¨²blicos como privados. De acuerdo con Bloomberg, el 83% de los ejecutivos est¨¢n de acuerdo que la confianza es la piedra angular de la econom¨ªa digital. A medida que los usuarios y prestadores de servicios toman consciencia de los riesgos y soluciones para un uso responsable de datos, aumentan los incentivos para crear principios y cumplir reglas.
En Am¨¦rica Latina y el Caribe, algunas organizaciones y pa¨ªses, como M¨¦xico, ya cuentan con lineamientos sobre la privacidad y el uso de inteligencia artificial. Pero podemos y debemos hacer mucho m¨¢s.
Respecto al marco regulatorio, la referencia global es el Reglamento de Protecci¨®n de Datos de la Uni¨®n Europea (GDPR, por sus siglas en ingl¨¦s). Esta norma establece que antes de procesar cualquier dato personal, un negocio debe preguntar expl¨ªcitamente el permiso de la persona, en un lenguaje claro y con el consentimiento para un prop¨®sito espec¨ªfico. Esta premisa ha abierto, en cierto sentido, una caja de Pandora tanto para reguladores como para empresas, que ¨²ltimamente contribuir¨¢ a un sistema de manejo de datos fortalecido y con epicentro en la persona.
En tan solo un a?o de implementaci¨®n del GDPR, se han registrado 90.000 notificaciones de violaciones de datos y 145.000 quejas. Adem¨¢s, 100 organizaciones han pagado sanciones por incumplimiento y Francia mult¨® a Google con 50 millones de euros, por recolectar datos sin el adecuado nivel de trasparencia sobre c¨®mo se usar¨ªan esos datos.
Con el objetivo de acelerar la adopci¨®n responsable de la IA con impacto social, por parte de los gobiernos de Am¨¦rica Latina y el Caribe, el Sector Social del BID est¨¢ preparando una iniciativa regional, conocida como fAIr LAC. Tambi¨¦n elabor¨® un marco conceptual y metodol¨®gico para apoyar a los pa¨ªses a facilitar la interoperabilidad de datos en sus plataformas p¨²blicas de forma ¨¦tica, que les permita ser m¨¢s efectivos en la toma de decisiones y elevar la calidad de los servicios sociales prestados.
Compartir datos se ha convertido en una pr¨¢ctica esencial de la econom¨ªa digital. Las personas dejamos un halo cr¨®nico de datos digitales, aun sin darnos cuenta. Pero hay riesgos que requieren la atenci¨®n de tomadores de decisi¨®n en cualquier organizaci¨®n que est¨¦ involucrada con manejo y an¨¢lisis de datos compartidos, sobre todo al tratarse de datos privados o de identificaci¨®n biom¨¦trica. Mientras que el futuro apunta a un uso de informaci¨®n m¨¢s regulado, deja la tarea de generar una cultura de responsabilidad que sea inherente a su gesti¨®n.
Puedes seguir a PLANETA FUTURO en Twitter y Facebook e Instagram, y suscribirte aqu¨ª a nuestra newsletter.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.