Injusticia programada
Se desperdician muchos recursos, tambi¨¦n digitales, haciendo que la gente acredite que es lo suficientemente pobre para recibir ayuda
De los Papeles de Pandora se pueden sacar muchas conclusiones. Una es que se supervisa mucho m¨¢s a los ciudadanos pobres que a los que evaden y eluden impuestos. Parece que hay un derecho a hurgar en las vidas de quienes piden ayudas p¨²blicas y que sus datos pueden recopilarse sin pudor. La tecnolog¨ªa ha creado una asimetr¨ªa brutal en la vigilancia y el control de riesgo: presupone que los que menos tienen son m¨¢s ego¨ªstas, menos cuidadosos con el gasto, que van a atender peor ...
Reg¨ªstrate gratis para seguir leyendo
Si tienes cuenta en EL PA?S, puedes utilizarla para identificarte
De los Papeles de Pandora se pueden sacar muchas conclusiones. Una es que se supervisa mucho m¨¢s a los ciudadanos pobres que a los que evaden y eluden impuestos. Parece que hay un derecho a hurgar en las vidas de quienes piden ayudas p¨²blicas y que sus datos pueden recopilarse sin pudor. La tecnolog¨ªa ha creado una asimetr¨ªa brutal en la vigilancia y el control de riesgo: presupone que los que menos tienen son m¨¢s ego¨ªstas, menos cuidadosos con el gasto, que van a atender peor a sus hijos y a exprimir al sistema en cuanto puedan.
Poco a poco vamos tomando conciencia de lo b¨¢sico, como que las plataformas como Facebook, Twitter o Tik Tok usan nuestros datos para ganar dinero, o que las dictaduras vigilan a sus disidentes a trav¨¦s de internet. El siguiente paso es comprender que la porquer¨ªa no solo salpica a empresas privadas y a Estados autoritarios. Las democracias que presumen de garantistas tambi¨¦n utilizan a los pobres como cobayas para probar tecnolog¨ªa invasiva. El a?o pasado, un tribunal en Holanda emiti¨® una sentencia in¨¦dita en Europa que dec¨ªa que el sistema de su Gobierno para detectar posibles fraudes violaba la privacidad y los derechos humanos de los afectados, que eran personas sin recursos e inmigrantes. Sobre la base de datos que hab¨ªan recopilado las administraciones sobre su renta, el tipo de casa en el que viv¨ªan, si ten¨ªan multas o deudas pendientes, entre otros, un algoritmo estimaba las posibilidades que ten¨ªan de cometer fraude.
Lo de mirar con lupa en qu¨¦ gastan dinero los pobres lleva ocurriendo desde el siglo XIX, pero la inteligencia artificial intensifica esta pr¨¢ctica. Virginia Eubanks, autora de La automatizaci¨®n de la desigualdad (Capit¨¢n Swing, 2021), cree que las antiguas casas para pobres en las que se atend¨ªa (y encerraba) a los desamparados que ped¨ªan ayuda hoy se han trasladado al ¨¢mbito digital. Eubanks lleva dos d¨¦cadas documentando c¨®mo en Estados Unidos cuando una persona pide una ayuda p¨²blica, vive en un barrio con m¨¢s control policial o cruza una frontera nacional se expone a un nivel mayor de recopilaci¨®n de sus datos.
Los algoritmos permiten trabajar con much¨ªsima informaci¨®n de manera eficaz, pero no necesariamente as¨¦ptica. Aunque parezcan herramientas m¨¢s objetivas, menos desviadas, m¨¢s limpias, perpet¨²an los sesgos que hay en la sociedad. Como dice Eubanks, el juicio moral al pobre es una tradici¨®n americana que viene de lejos: no tienes dinero porque no te has esforzado lo suficiente, porque no vales, no por la manera en la que hemos organizado nuestra econom¨ªa y nuestra convivencia. Se desperdician muchos recursos, tambi¨¦n digitales, haciendo que la gente acredite que es lo suficientemente pobre para recibir ayuda. Y que moralmente la merece.