Polic¨ªa predictiva: el peligro de saber d¨®nde habr¨¢ m¨¢s delincuencia
Los autores de un algoritmo capaz de anticipar con un 90% de acierto los puntos calientes del crimen alertan de que un mal uso de su modelo puede perpetuar sesgos racistas
Saber d¨®nde se va a cometer un crimen antes de que suceda es el sue?o de cualquier departamento de Polic¨ªa. Los cient¨ªficos de datos y expertos en inteligencia artificial quieren hacerlo realidad. Muchos cuerpos de seguridad, especialmente en EE UU, pa¨ªs en el que los asesinatos a mano armada est¨¢n a la orden del d¨ªa, trabajan desde hace a?os con sistemas automatizados que procesan extensas bases de datos para detectar patrones que permitan predecir los puntos calientes de criminalidad. Un grupo de investigadores de la Universidad de Chicago dirigidos por el profesor Victor Rotaru ha desarrollado un modelo capaz de predecir con una semana de antelaci¨®n d¨®nde va a haber m¨¢s delincuencia. La herramienta acierta en un 90% de los casos, lo que le hace destacar entre los diversos ejemplos de la llamada polic¨ªa predictiva, presente en ciudades como Los ?ngeles o Nueva York y operados por compa?¨ªas como PredPol, Azavea y KeyStats.
Su sistema, presentado en un art¨ªculo de la revista Nature Human Behaviour, est¨¢ dise?ado para entornos urbanos. El modelo se entren¨® con datos hist¨®ricos de delitos violentos y contra la propiedad de la ciudad de Chicago, Illinois, de entre 2014 y 2016. Tras procesar esa informaci¨®n, se intent¨® anticipar las zonas con m¨¢s altos niveles de criminalidad en las semanas siguientes al periodo de pruebas. La herramienta predijo la probabilidad de que ciertos cr¨ªmenes, como homicidios, agresiones, asaltos y robos, ocurrieran en secciones de 300 metros cuadrados de la ciudad. Lo logr¨® con una fiabilidad del 90%. Posteriormente, se prob¨® el modelo en otras siete grandes urbes del pa¨ªs (Atlanta, Austin, Detroit, Los ?ngeles, Filadelfia, San Francisco y Portland) con resultados similares.
Pero este tipo de sistemas algor¨ªtmicos, por m¨¢s que se sofistiquen, no consiguen resolver un problema central: c¨®mo tratar de no penalizar a los barrios m¨¢s desfavorecidos, que en el caso del pa¨ªs norteamericano son mayormente poblados por vecinos negros y latinos. Se trata de un efecto perverso ampliamente acreditado por la literatura cient¨ªfica. Una investigaci¨®n presentada el a?o pasado concluy¨®, de hecho, que es imposible que los sistemas de polic¨ªa predictiva logren contrarrestar sus sesgos. Ese es uno de los motivos por los que el Parlamento Europeo ha pedido que se proh¨ªban estas herramientas en la UE.
El equipo de investigadores que firma el estudio publicado en Nature Human Behaviour es consciente de ello. ¡°En un intento de evitar que el uso de su herramienta acabe siendo perjudicial para algunos colectivos, los autores le dan la vuelta al concepto de polic¨ªa predictiva y prescriben que sus modelos se usen para monitorizar la propia labor policial¡±, se?ala Andrew V. Papachristos, investigador del departamento de Sociolog¨ªa de la Northwestern University (Evanston).
Hacia departamentos de ¡®precrimen¡¯
El acad¨¦mico, que revis¨® el art¨ªculo de Rotaru y sus colegas, cree que el matiz es importante y puede ayudar a desarrollar sistemas de intervenci¨®n temprana y otros esfuerzos para identificar abusos policiales, un asunto especialmente sensible en el pa¨ªs desde la muerte de George Floyd en 2020. Opina tambi¨¦n que puede ayudar a ¡°enviar trabajadores sociales, equipos de respuesta y de ayuda a las v¨ªctimas a aquellos cuadrantes de 300 metros cuadrados en los que se haya detectado que habr¨¢ m¨¢s disputas¡±.
Supongamos que una herramienta predictiva como la ideada por el equipo de Rotaru concluye que hay muchas probabilidades de que se cometa un crimen en una manzana determinada de Chicago dentro de tres d¨ªas. ?Qu¨¦ se debe hacer con esa informaci¨®n? ?Hay que activar una respuesta por parte de las autoridades? En caso afirmativo, ?qu¨¦ tipo de actuaciones se deben llevar a cabo y por qui¨¦n? Todas estas preguntas, se?ala Papachristos, son tan importantes o m¨¢s que la propia predicci¨®n.
¡°Una de nuestras preocupaciones centrales al elaborar este estudio fue su potencial para ser mal usado. M¨¢s importante que hacer buenas predicciones es c¨®mo se van a usar estas. Enviar polic¨ªa a una ¨¢rea no es el resultado ¨®ptimo en todos los casos, y puede suceder que buenas predicciones (e intenciones) lleven a sobrevigilancia o a abusos policiales¡±, escriben los autores en el art¨ªculo. ¡°Nuestros resultados pueden ser malinterpretados como que hay demasiada polic¨ªa en una zona de poca criminalidad, que normalmente ser¨¢ en comunidades predominantemente blancas, y demasiada poca en las de mayor criminalidad, en las que suele haber m¨¢s diversidad cultural y ¨¦tnica¡±, a?aden.
¡°Concebimos nuestro modelo b¨¢sicamente como una herramienta de optimizaci¨®n de pol¨ªtica policial¡±, abunda Ishanu Chattopardhayay, colega de Rotaru en la Universidad de Chicago y coautor del art¨ªculo. ¡°Por eso insistimos tanto en que hay que ser muy cuidadosos en la forma de aplicar el conocimiento que aporta¡±, a?ade. En su opini¨®n, su algoritmo puede servir para analizar las pr¨¢cticas policiales actuales y ver, por ejemplo, si se est¨¢n dedicando demasiados recursos en barrios en los que a fin de cuentas no se delinque tanto como en otros.
Sobrecriminalizaci¨®n de negros y latinos
El hecho de que la herramienta de Rotaru y sus colegas se haya probado en Chicago es significativo. Uno de los primeros sistemas de polic¨ªa predictiva de los que se tiene constancia fue el que se puso en marcha precisamente en esa ciudad en 2013. La herramienta trataba de identificar a potenciales criminales analizando datos de arrestos, tanto de los presuntos autores de los cr¨ªmenes como de sus v¨ªctimas, y cruz¨¢ndolos con sus redes de relaciones personales. Fue un sonoro fracaso: no ayud¨® a que cayera la criminalidad y se demostr¨® que la poblaci¨®n negra quedaba sobrerrepresentada en las listas. El 56% de los hombres negros de entre 20 y 29 a?os figuraban en ellas, seg¨²n detall¨® un estudio independiente unos a?os despu¨¦s.
En las grandes ciudades estadounidenses, hay barrios que suelen estar estrechamente asociados a una raza en particular. ¡°La actividad policial desproporcionada en comunidades de color puede contribuir a los sesgos en los registros de incidentes, lo que puede causar que se propaguen a modelos inferidos¡±, reconocen los autores del art¨ªculo, para quienes no hay forma de controlar estad¨ªsticamente esas desviaciones. ¡°Quien use este tipo de herramientas debe ser consciente de ello¡±, subrayan.
Una investigadora de otra universidad estadounidense consultada por EL PA?S cuestiona los resultados del estudio de Rotaru y sus colegas. En su opini¨®n, la alta efectividad del modelo (90%) desciende notablemente cuando los cr¨ªmenes analizados son raros. Otro pero que le pone al modelo es que el algoritmo predictivo no ser¨¢ capaz de detectar las zonas con mayor criminalidad, sino con mayor criminalidad reportada.
Esa diferencia es importante, porque en EE UU las comunidades negras son menos proclives a denunciar delitos ante la polic¨ªa. Rotaru y su equipo se?alan que pretenden corregir ese sesgo teniendo en cuenta ¨²nicamente cr¨ªmenes que, por su naturaleza (agresiones, asesinatos, robos de bienes), suelen ser reportados.
¡°Nuestra herramienta se basa en los delitos registrados. No podemos modelar sobre cr¨ªmenes que no se hayan denunciado¡±, explica Chattopardhayay, del equipo de Rotaru.
La desigual relaci¨®n con las fuerzas de seguridad en funci¨®n de la raza es uno de los sesgos de entrada a los que se enfrentan los algoritmos aplicados a labores policiales. No son los ¨²nicos. Como las bases de datos con las que trabajan suelen ser de arrestos, las zonas con m¨¢s detenciones son las que la m¨¢quina asocia con m¨¢s necesidad de patrullas, lo que a su vez aumenta el n¨²mero de detenciones. De ah¨ª las protestas de muchas asociaciones de la sociedad civil por el uso generalizado de estas herramientas y las cautelas de Rotaru y sus colegas con su propio trabajo.
Puedes seguir a EL PA?S TECNOLOG?A en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.