iProfesional

Esta inteligencia artificial predice crímenes con una semana de antelación

El sistema de inteligencia artificial fue probada con datos de ocho grandes ciudades estadounidenses donde mostró un nivel alto de rendimiento
01/07/2022 - 11:00hs
Esta inteligencia artificial predice crímenes con una semana de antelación

Un sistema de inteligencia artificial (IA) fue capaz de predecir la ubicación y la tasa de delincuencia en una ciudad con una semana de anticipación y una precisión de hasta el 90%.

Aunque otros sistemas similares han sido puestos bajo la lupa por su sesgo racista, los creadores de la IA creen que se podría utilizar para exponer este problema. Según informó el medio New Sciencist, los resultados y detalles del proyecto se explican en un artículo publicado en Nature Human Behaviour.

¿Cómo funciona este software? Un equipo de la Universidad de Chicago, dirigido por Ishanu Chattopadhyay, generó un modelo que analizó datos históricos de delincuencia de esa ciudad de los Estados Unidos) desde 2014 hasta finales de 2016.

Después, la IA se dispuso a predecir con antelación los niveles de delincuencia en las semanas posteriores a su capacitación. El modelo predijo la probabilidad de que ocurrieran ciertos delitos en toda la ciudad, dividida en cuadrados de unos 300 metros de ancho.

Lo hizo con siete días de antelación y una precisión del 90%. Al ser probada con datos de otras siete grandes ciudades estadounidenses, el programa mostró un nivel de rendimiento parecido.

El problema del uso de la inteligencia artificial en cuestiones penales pasa por sus sesgos.
El problema del uso de la inteligencia artificial en cuestiones penales pasa por sus sesgos.

El problema del sesgo racial en la inteligencia artificial

El sesgo racial es un fantasma que persigue a la aplicación de la IA en múltiples campos: desde los algoritmos de compañías como Uber y Lyft a la tecnología de reconocimiento facial, las máquinas acusan los mismos sesgos racistas que parte de la especie humana.

En el terreno de la vigilancia policial, otros sistemas por el estilo han insistido el sesgo racista. Un caso fue el de un algoritmo creado por el Departamento de Policía de Chicago y que generó una lista de personas consideradas en mayor riesgo de estar involucradas en un tiroteo, bien fuera como víctimas o como perpetradres.

Aunque los detalles se mantuvieron en secreto, cuando la lista vio la luz se descubrió que constaban en ella el 56% de los hombres negros de la ciudad de entre 20 y 29 años. No obstante, en este caso los investigadores detrás de su creación creen que podría servir para exponer estos sesgos raciales.

Chattopadhyay admitió que los datos utilizados por su modelo también estarán sesgados, pero dijo que se han realizado esfuerzos para reducir el efecto del sesgo y que la IA no identifica a los sospechosos, solo a los sitios potenciales del crimen.

La referencia a Minority Report

"No es Minority Report", apuntó, en referencia a la película famosa, el investigador, quien destacó la capacidad de la IA para gestionar mejor los recursos. "Sería genial si pudieras saber dónde van a ocurrir los homicidios", apuntó. En lugar de asignar recursos policiales, la IA podría emplearse para gestionar políticas a altos niveles.

Además, la IA rastreó los datos para saber en qué lugares la vigilancia se ve afectada por el sesgo humano. Para ello se analizaron el número de arrestos por crímenes en barrios de Chicago con diferentes niveles socioeconómicos: los delitos en las áreas más ricas resultaron en más arrestos que en las áreas más pobres, lo que sugiere un sesgo en la respuesta policial.

"Podría estar reflejando discriminación intencional por parte de la policía en ciertas áreas", dijo Lawrence Sherman, del Cambridge Centre for Evidence-Based Policing en Reino Unido