La policía del Reino Unido planea es emplear un sistema denominado National Data Analytics Solution (NDAS) –una combinación de software de inteligencia artificial y estadísticas– para evaluar el riesgo de que una persona cometa un crimen con arma blanca o arma de fuego, o que sea víctima de ella.

De esta forma, al identificar los posible delitos las autoridades podrían ofrecer asesoramiento o apoyo de los servicios sociales o de salud para evitar posibles conductas delictivas.Iain Donnelly, responsable del proyecto en la Policía de West Midlands, aseguró a New Scientist que la intención no es arrestar preventivamente a nadie, sino analizar a personas ya registradas por la policía y priorizar a quienes necesitan intervenciones con más urgencia.

Por ejemplo, por ejemplo aquellos con un historial de problemas de salud mental que según el NDAS tengan probabilidad de cometer actos violentos– para que puedan ser atendidos por los servicios sociales.

Aunque en otros países la policía usa programas informáticos para identificar puntos críticos de delincuencia, el NDAS es pionero porque agrupa conjuntos de datos de hasta ocho fuerzas policiales (como la Policía Metropolitana de Londres y la Policía del Gran Manchester), además de registros de personas detenidas y registradas y también los de delitos cometidos.A partir de esas bases de datos se han podido identificar hasta cinco millones de personas y el software encontró 1.400 indicadores que podrían ayudar a predecir el crimen, como el número de delitos cometidos por una persona sola o el de cometidos con ayuda de otros.

En base a esas estadísticas, el componente de aprendizaje automático del sistema puede predecir y puntuar el riesgo de que ese individuo cometa delitos en el futuro.

Pero el proyecto no está exento de polémica y ya ha suscitado críticas por los problemas éticos que plantea, según señala La Vanguardia.

Desde el Instituto Alan Turing cuestionan si es posible intervenir sin que una persona haya delinquido. También mostró preocupación por las posibles predicciones incorrectas.Además, se advierte que al basar las predicciones en arrestos previos, el sistema tiene un sesgo hacia las zonas más transitadas y hacia las personas que viven en barrios pobres o zonas conflictivas, donde hay más despliegue policial y, por ello, donde se producen más detenciones.

A pesar de estas y otras dudas sobre la confiabilidad de la inteligencia artificial para predecir delitos, estos sistemas ya se están usando en la seguridad pública.El partido entre la Roma y el Real Madrid del martes pasado sirvió de banco de pruebas para un motor de inteligencia semántica desarrollado por Expert System que rastreó en las redes sociales cualquier contenido o comentario en inglés, español e italiano que indicara comportamientos o intenciones que pudieran ser potencialmente peligrosos.

Te puede interesar