Los Cuerpos Policiales del mundo occidental llevan más de dos décadas experimentando con sistemas predictivos de la criminalidad, apoyados en el análisis de datos y la inteligencia artificial. Este tipo de herramientas están muy implantadas en los Estados Unidos y en China pero también tienen presencia en países como Reino Unido, Alemania y Suiza.
Su objetivo es establecer los puntos negros del crimen para desplegar las patrullas policiales de forma más eficaz. Uno de los efectos perversos de estos sistemas es que tienden a sobrecriminalizar los barrios más pobres. Ello es debido a que la alimentación de datos de los algoritmos se basan -principalmente- en las detenciones, luego la conclusión reclama más vigilancia en las zonas donde se producen esas intervenciones, lo que a su vez provoca más detenciones aún.
Acabar con este círculo vicioso es complicado. Algunos operadores han tratado de salirse de ese método, nutriendo el sistema con datos de denuncias. Es el caso de la herramienta Predicción Policial ( Pred Pol ), una de las más populares en Estados Unidos. Si se tiene en cuenta las denuncias de las víctimas -aseguran- se obtiene una imagen más nítida de la delincuencia y se eliminan los posibles prejuicios que puedan llevar a la Policía a realizar más actuaciones en unos barrios concretos como los habitados por negros mayormente. Esos esfuerzos se han mostrado inútiles porque se cometen los mismos errores y lleva al mismo despliegue inadecuado de las patrullas policiales.

Estos sistemas informáticos no son ninguna novedad y llevan ya muchos años operando. En 1998, el 36% de los departamentos policiales de Estados Unidos decían tener la información necesaria y la capacidad técnica de generar mapas digitales de criminalidad. Pocos años después, el 70% de ellos decía usar esa cartografía para identificar los puntos negros. Las versiones más modernas que se conocen de estas primeras herramientas de vigilancia policial se remontan al año 2008, cuando el Departamento de Policía de Los Angeles ( LAPD ) empezó sus propios planes, siguiéndole a continuación la Policía de Nueva York ( NYPD ).
Diversos estudios universitarios han acreditado los problemas que plantea la aplicación de algoritmos predictivos en la actividad policial. Uno de los primeros sistemas de este tipo en salir a la luz fue el que puso en marcha la ciudad de Chicago en el año 2013, donde un algoritmo identificaba a potenciales delincuentes analizando datos de detenciones y la agenda de relaciones tanto de autores como de víctimas.
El objetivo era poner en marcha programas de servicios sociales preventivos con quienes el sistema detectaba que podían delinquir. Fue un fracaso. No solo desde el punto de vista de la eficiencia ya que no ayudó a que cayera la criminalidad sino que además la población negra quedaba sobrerrepresentada en las estadísticas.

En el año 2010, una investigación del Departamento de Justicia concluyó que el Departamento de Policía de Nueva Orleans ( NOPD ) debía de ser reformado casi a cero tras detectar anomalías graves: se encontraron pruebas de varios incumplimientos de leyes federales, incluyendo el uso excesivo de la fuerza; detenciones ilegales y discriminaciones por raza y orientación sexual.
A estas alturas, ya está demostrado que estos algoritmos usados por la Policía norteamericana producen desviaciones que llevan al racismo y perjuicios a los más pobres. Muchas de las prácticas policiales irregulares se deben a estos sesgos ya que distorsionan -gravemente- los datos que se recogen. Si el sistema no se reforma, especialmente en cuanto a su suministro informativo aumentará el riesgo de causar más daño que beneficio a la justicia y a la sociedad. De ahí que las principales empresas del sector traten de corregir estos defectos si es que quieren seguir vendiendo sus herramientas sin que la sociedad se les eche encima, tarea que probablemente no sea posible.
También se han analizado las pruebas de la instalación de este algoritmo en la capital colombiana, en Bogotá. Su elección se debe a que es una de las pocas ciudades del mundo que publica estadísticas de denuncias por barrios y que actualmente trabaja en la implantación de uno de estos sistemas predictivos. Cuando cruzaron los resultados de su modelo con los datos reales de delitos, detectaron errores de bulto. Las áreas de mayor criminalidad son las que presentaban menos denuncias y no se identificaban como puntos negros, en cambió si aparecían como tales las zonas con delincuencia media o baja pero con muchas denuncias. Algunos barrios necesitaban tener la mitad de los delitos que otros para que el sistema previera que se trataba de un punto negro.

Esta disfunción es explicable porque la estadística de los delitos cometidos no refleja exactamente la distribución real de la criminalidad puesto que la disposición a denunciar las infracciones ante la Policía, es diferente según el barrio de que se trate. Desde la mentalidad norteamericana, es común que un blanco denuncie a un negro o que un negro denuncie a otro negro pero no tanto que un negro denuncie a un blanco.
¿ Cuál sería entonces la solución ?. ¿ Hay algún modo de que los algoritmos predictivos policiales no encasillen -todavía más- a los más desfavorecidos ?. La única forma es no usarlos, sería la conclusión final.
Interesante artículo, que aportas don Juan, yo creo que no hay que abusar, de la I.A. (Inteligencia Artificial) que como bien dices, puede tener un resultado pernicioso, el mejor sistema, es hacer, caso de las denuncias personales del ciudadano, para luchar, contra los actos delictivos y el crimen organizado. Genial tu articulazo, como siempre, y muy bien documentado. Gracias, don Juan. Y feliz Navidad, y Prospero Año Nuevo, y con Paz en el mundo.
Me gustaMe gusta
Gracias por tu comentario, Juan. Un abrazo y Feliz Navidad.
Me gustaMe gusta