Algoritmos de predicci¨®n policial: para qu¨¦ se usan y por qu¨¦ se ensa?an con los m¨¢s pobres
Un reciente estudio concluye que estos sistemas, usados en EE UU, Reino Unido, Alemania o Suiza para prever las zonas de mayor criminalidad, tienden a castigar m¨¢s a los barrios menos pudientes aunque se trate de corregir ese sesgo
Los departamentos de polic¨ªa llevan dos d¨¦cadas experimentando con sistemas predictivos apoyados en el an¨¢lisis de datos y la inteligencia artificial. Este tipo de herramientas est¨¢n muy implantadas en Estados Unidos y China, pero tambi¨¦n tienen presencia en pa¨ªses como Reino Unido, Alemania o Suiza. Su objetivo es determinar los puntos calientes del crimen para desplegar a las patrullas policiales de forma m¨¢s eficiente. Uno de los efectos perversos de e...
Reg¨ªstrate gratis para seguir leyendo
Si tienes cuenta en EL PA?S, puedes utilizarla para identificarte
Los departamentos de polic¨ªa llevan dos d¨¦cadas experimentando con sistemas predictivos apoyados en el an¨¢lisis de datos y la inteligencia artificial. Este tipo de herramientas est¨¢n muy implantadas en Estados Unidos y China, pero tambi¨¦n tienen presencia en pa¨ªses como Reino Unido, Alemania o Suiza. Su objetivo es determinar los puntos calientes del crimen para desplegar a las patrullas policiales de forma m¨¢s eficiente. Uno de los efectos perversos de estos sistemas es que tienden a sobrecriminalizar los barrios menos pudientes: como los algoritmos se suelen alimentar de datos sobre arrestos, normalmente reclaman m¨¢s vigilancia en las zonas donde se producen esas acciones, lo que a su vez provoca m¨¢s detenciones a¨²n.
Acabar con este c¨ªrculo vicioso es complicado. Algunos desarrolladores han tratado de hacerlo nutriendo el sistema tambi¨¦n con datos de denuncias. Es el caso de la herramienta de PredPol, una de las m¨¢s populares en Estados Unidos. Si se tiene en cuenta los reportes de las v¨ªctimas, aseguran, se obtiene una imagen m¨¢s n¨ªtida de la criminalidad y se eliminan los posibles prejuicios que puedan llevar a la polic¨ªa a realizar m¨¢s arrestos en determinados distritos (por ejemplo, en barrios predominantemente negros).
Pero esos esfuerzos son in¨²tiles. Una reciente investigaci¨®n concluye que los algoritmos que trabajan con esa informaci¨®n cometen los mismos errores. ¡°Nuestro estudio demuestra que incluso los sistemas basados exclusivamente en las denuncias interpuestas por las v¨ªctimas pueden llevar a sesgos geogr¨¢ficos que pueden redundar en una colocaci¨®n significativamente errada de las patrullas policiales¡±, explica a EL PA?S Nil-Jana Akpinar, investigadora de la Universidad Carnegie Mellon y coautora del trabajo.
El sue?o de la polic¨ªa predictiva
Los sistemas que analiza Akpinar llevan a?os entre nosotros. Ya en 1998, el 36% de los departamentos de polic¨ªa estadounidenses dec¨ªan tener los datos y la capacidad t¨¦cnica de generar mapas digitales de criminalidad, seg¨²n fuentes federales. Tan solo unos a?os despu¨¦s, el 70% dec¨ªa usar esos mapas para identificar los puntos calientes. ¡°Las versiones m¨¢s modernas de estas primeras herramientas de vigilancia policial preventiva se remontan a 2008, cuando el Departamento de Polic¨ªa de Los ?ngeles (LAPD) empez¨® sus propias exploraciones, a quien le sigui¨® la polic¨ªa de Nueva York (NYPD), que usaba herramientas desarrolladas por Azavea, KeyStats y PredPol¡±, describe la investigadora.
Diversos estudios han acreditado los problemas que plantea la aplicaci¨®n de algoritmos predictivos en la actividad policial. Uno de los primeros sistemas de este tipo en salir a la luz fue el que puso en marcha la ciudad de Chicago en 2013: un algoritmo identificaba a potenciales criminales analizando datos de arrestos y la red de relaciones tanto de pistoleros como de v¨ªctimas. El objetivo era poner en marcha programas de servicios sociales preventivos con quienes el algoritmo detectaba que pod¨ªan delinquir. Fue un fracaso. No solo desde el punto de vista de la eficiencia (no ayud¨® a que cayera la criminalidad), sino que adem¨¢s la poblaci¨®n negra qued¨® sobrerrepresentada en las listas, seg¨²n detall¨® un estudio independiente unos a?os despu¨¦s.
En 2010, una investigaci¨®n del Departamento de Justicia determin¨® que el Departamento de Polic¨ªa de Nueva Orleans (NOPD) deb¨ªa ser reformado casi de cero tras detectar anomal¨ªas graves: se encontraron pruebas de varias violaciones de leyes federales, incluyendo el uso excesivo de la fuerza, detenciones irregulares o discriminaci¨®n por raza y orientaci¨®n sexual. Tan solo dos a?os despu¨¦s, la NOPD empez¨® a trabajar de forma secreta con Palantir, una misteriosa compa?¨ªa de Silicon Valley especializada en el an¨¢lisis de datos relacionada con la CIA y el Pent¨¢gono. Su fundador, Peter Thiel, que puso en marcha unos a?os antes PayPal junto a Elon Musk, ser¨ªa m¨¢s tarde de los pocos magnates tecnol¨®gicos que apoy¨® abiertamente al presidente Donald Trump durante su mandato.
Palantir desarroll¨® para la NOPD un software pensado para dar caza a los principales miembros de las bandas de narcotraficantes m¨¢s importantes de la ciudad, seg¨²n desvel¨® The Verge. Todav¨ªa no est¨¢ claro si la herramienta infringi¨® la ley (elabor¨® listas de ¡°sospechosos¡± a los que seguir de modo preventivo), pero los datos dicen que el n¨²mero de asesinatos por violencia armada disminuy¨® en Nueva Orleans.
Para que sus m¨¦todos y algoritmos evitaran el escrutinio p¨²blico, la compa?¨ªa no cerr¨® el contrato con el departamento de la polic¨ªa, sino con una fundaci¨®n creada para tal efecto. Palantir sigui¨® el mismo modus operandi con la polic¨ªa de Nueva York (NYPD), tal y como destap¨® BuzzFeed en 2017, y presumiblemente con sus colegas de Los ?ngeles (LAPD).
Ese secretismo no es casual. Ya se ha demostrado que los algoritmos predictivos usados por la polic¨ªa reproducen sesgos como el racismo y suelen perjudicar a los m¨¢s pobres. Uno de los estudios m¨¢s conocidos es el de Rashida Richardson, Jason M. Schultz y Kate Crawford, del AI Now Institute, que pone el ¨¦nfasis en que este tipo de algoritmos siempre arroja resultados que contienen sesgos. Su paper, publicado en 2019, demuestra que ¡°las pr¨¢cticas ilegales de la polic¨ªa¡±, en referencia tanto a la corrupci¨®n como a los juicios sesgados, ¡°pueden distorsionar significativamente los datos que se recogen¡±. Si no se reforma la manera en que las fuerzas de seguridad recopilan y ordenan los datos, dicen, ¡°aumenta el riesgo de que los sistemas policiales predictivos est¨¦n sesgados y de que afecten a la Justicia y a la sociedad¡±.
Tratando de corregir los sesgos
De ah¨ª que las principales compa?¨ªas del sector traten de corregir estos defectos: quieren poder seguir vendiendo sus herramientas sin que la sociedad se le eche encima. Akpinar y sus colegas Alexandra Chouldechova, tambi¨¦n de la Carnegie Mellon, y Maria De-Arteaga, de la Universidad de Texas (Austin), concluyeron que nos es posible eliminar los sesgos de estos sistemas tras desarrollar su propio algoritmo predictivo. Se basaron en el modelo que utiliza PredPol, la herramienta m¨¢s popular de Estados Unidos. ¡°Aunque no hay una lista oficial de cu¨¢ntos departamentos de polic¨ªa tienen contratos con PredPol, se sabe que docenas de ciudades estadounidenses usan o han usado en alg¨²n momento las herramientas de la compa?¨ªa, incluyendo Los ?ngeles, San Francisco, Oakland y Richmond¡±, asegura Akpinar. Tambi¨¦n hay pruebas, a?ade, de que la polic¨ªa de Kent, en Inglaterra, ha trabajado con esta herramienta.
Las investigadoras entrenaron a su algoritmo con datos estad¨ªsticos de criminalidad de Bogot¨¢, una de las pocas ciudades del mundo que publica informes de denuncias por distritos y que actualmente trabaja en la implementaci¨®n de uno de estos sistemas predictivos. Cuando cruzaron los resultados de su modelo con los datos reales de delitos detectaron errores de bulto. Las ¨¢reas con mayor criminalidad, pero pocas denuncias fueron menos identificadas como puntos calientes que las zonas con criminalidad media o baja pero muchas denuncias. Algunos distritos necesitaban tener la mitad de cr¨ªmenes que otros para que el sistema previera que se trataba de un punto caliente.
¡°Esto se debe a que los datos de cr¨ªmenes cometidos no reflejan exactamente la distribuci¨®n real de la criminalidad y a que los distintos barrios o comunidades tienen una propensi¨®n diferente a presentar una denuncia a la polic¨ªa¡±, subraya Akpinar. Yendo al detalle, es estad¨ªsticamente com¨²n que un blanco denuncie a un negro, o que un negro denuncie a otro negro, pero no tanto que un negro denuncia a un blanco.
?Cu¨¢l es entonces la soluci¨®n? ?Hay alg¨²n modo de que los algoritmos predictivos policiales no encasillen todav¨ªa m¨¢s a los menos favorecidos? ¡°La ¨²nica forma es no usarlos¡±, concluye la investigadora.
Puedes seguir a EL PA?S TECNOLOG?A en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.