El reto de la IA y los algoritmos en la actuación policial

El reto de la IA y los algoritmos en la actuación policial

El reto de la IA y los algoritmos en la actuación policial

En abril de 2025, BBC publicó un reportaje sobre Lina, asesinada el 9 de febrero de 2025 por su ex pareja. Sólo una semana antes de su muerte, Lina había denunciado a la policía las amenazas de violencia de su ex pareja.

Como parte de su informe, Lina fue evaluada por VioGen, un sistema de tecnología algorítmica utilizado por el gobierno español, diseñado para prevenir, controlar y gestionar la violencia de género. VioGen calificó a Lina de riesgo «medio». Como resultado, fue enviada a casa, con un agente programado para hacer un seguimiento con ella en 30 días.

En este caso, el algoritmo no evaluó correctamente el peligro, y el resultado fue fatal.

Aplicación algorítmica de la ley

La historia de Lina plantea cuestiones sobre el papel que desempeñan los algoritmos y la inteligencia artificial (IA) en la investigación de los delitos. Por un lado, copiar la experiencia y la capacidad de toma de decisiones de un agente de policía formado es un reto importante. Por otra parte, cada vez es más difícil encontrar agentes experimentados.

Con presupuestos ajustados y escasez de mano de obra, la IA está adquiriendo mayor protagonismo en las fuerzas de seguridad para aliviar la presión sobre los equipos e impulsar la eficiencia. Estos sistemas dependen de los datos que utilizan. La información debe ser precisa, completa y basarse en suficientes ejemplos anteriores que sean similares.

El reto de la IA en la policía

España no es el único país que utiliza la inteligencia artificial para agilizar sus procesos. El Reino Unido utiliza la herramienta de evaluación del riesgo de maltrato doméstico, acoso y violencia basada en el honor (DASH), y Canadá tiene la Evaluación del Riesgo de Agresión Doméstica de Ontario (ODARA). Mientras tanto, las Organizaciones No Gubernamentales (ONG) también están utilizando algoritmos de apoyo a la violencia de género. EL PNUD utiliza la IA para abordar el problema en América Central y ONU Mujeres utiliza la tecnología para ayudar a las supervivientes de la violencia sexual en Tailandia.

Estos sistemas tienen una serie de funciones, como la integración de datos, la evaluación de riesgos, la gestión de casos y proporcionar alertas en tiempo real. En muchos casos, están demostrando ser valiosos. Sin embargo, por desgracia, no pueden ser eficaces al 100% desde el principio. Y los organismos no deben esperar que lo sean. A medida que estas tecnologías utilicen el aprendizaje automático para ser más fiables, con el tiempo seguirán mejorando. Hasta entonces, la policía debe seguir trabajando para combinar el juicio humano con la ayuda de la tecnología.

Una tarea complicada

En Focus Data, hemos estado probando la IA para detectar sospechosos de asesinato a partir de los registros de llamadas de las víctimas. No es tan sencillo como teclear una pregunta en un gran modelo de lenguaje (LLM) como ChatGPT. Se trata de casos reales y complejos. Los Registros de Llamadas superan uno de los retos básicos de recopilar datos suficientes en un formato coherente y preciso. Sin embargo, sigue existiendo el reto de conseguir suficientes ejemplos de entrenamiento que sean similares, por ejemplo, asesinatos domésticos, de bandas, de drogas o por encargo. Al igual que ocurre en el resto del mundo policial, formular la pregunta adecuada es fundamental. Es una tarea difícil pero prometedora, y estamos avanzando con cuidado.

¿Te interesa saber cómo la inteligencia artificial puede ayudar a atrapar a los delincuentes y salvar vidas? Ponte en contacto hoy mismo.

No Comments

Post A Comment