Le défi de l’IA et des algorithmes dans la police

Le défi de l’IA et des algorithmes dans la police

Le défi de l’IA et des algorithmes dans la police

En avril 2025, BBC a publié un reportage sur Lina, assassinée le 9 février 2025 par son ex-partenaire. Une semaine seulement avant sa mort, Lina avait signalé à la police les menaces de violence de son ex-partenaire.

Dans le cadre de son rapport, Lina a été évaluée par VioGen, un système technologique algorithmique utilisé par le gouvernement espagnol et conçu pour prévenir, surveiller et gérer la violence fondée sur le genre. VioGen a classé Lina dans la catégorie des personnes présentant un risque « moyen ». Elle a donc été renvoyée chez elle, et un agent a prévu de la revoir dans 30 jours.

Dans ce cas, l’algorithme n’a pas évalué correctement le danger, et l’issue a été fatale.

Application algorithmique de la loi

L’histoire de Lina soulève des questions sur le rôle que jouent les algorithmes et l’intelligence artificielle (IA) dans les enquêtes criminelles. D’une part, copier l’expérience et les compétences décisionnelles d’un policier formé est un défi de taille. D’autre part, il est de plus en plus difficile de trouver des policiers expérimentés.

Dans un contexte de restrictions budgétaires et de pénurie de main-d’œuvre, l’IA prend de plus en plus d’importance au sein des forces de l’ordre afin d’alléger la pression sur les équipes et d’améliorer l’efficacité. Ces systèmes dépendent des données qu’ils utilisent. Les informations doivent être exactes, complètes et fondées sur un nombre suffisant d’exemples antérieurs similaires.

Le défi de l’IA dans la police

L’Espagne n’est pas la seule nation à utiliser l’intelligence artificielle pour rationaliser ses processus. Le Royaume-Uni utilise l’outil d’évaluation du risque d’abus domestique, de harcèlement et de violence fondée sur l’honneur (DASH), et le Canada utilise l’outil d’évaluation du risque d’agression domestique de l’Ontario (ODARA). Parallèlement, les organisations non gouvernementales (ONG) utilisent également des algorithmes pour lutter contre la violence à l’égard des femmes. LE PNUD utilise l’IA pour s’attaquer au problème en Amérique centrale et ONU Femmes utilise la technologie pour aider les victimes de violences sexuelles en Thaïlande.

Ces systèmes ont plusieurs fonctions, notamment l’intégration des données, l’évaluation des risques, la gestion des dossiers et la diffusion d’alertes en temps réel. Dans de nombreux cas, ils s’avèrent précieux. Cependant, ils ne peuvent malheureusement pas être efficaces à 100 % dès le départ. Et les agences ne doivent pas s’attendre à ce qu’elles le soient. Comme ces technologies utilisent l’apprentissage automatique pour devenir plus fiables, elles continueront à s’améliorer au fil du temps. D’ici là, la police doit continuer à combiner le jugement humain avec l’aide de la technologie.

Une tâche compliquée

Chez Focus Data, nous avons testé l’IA pour détecter les suspects de meurtre à partir des enregistrements des appels des victimes. Il ne s’agit pas simplement de taper une question dans un grand modèle de langage (LLM) tel que ChatGPT. Nous avons affaire à des cas réels et complexes. Les enregistrements de données d’appels permettent de relever l’un des défis fondamentaux, à savoir collecter suffisamment de données dans un format cohérent et précis. Cependant, il est toujours difficile d’obtenir suffisamment d’exemples de formation similaires, par exemple des meurtres domestiques, des meurtres de gangs, des meurtres liés à la drogue ou des meurtres contractuels. Tout comme le reste du monde policier, il est essentiel de poser la bonne question. C’est une tâche difficile mais prometteuse, et nous progressons prudemment.

Vous souhaitez comprendre comment l’intelligence artificielle peut aider à attraper des criminels et à sauver des vies ? Prenez contact avec nous dès aujourd’hui.

No Comments

Post A Comment