Minority Report est souvent une comparaison digne de la science-fiction pour les nouvelles technologies, mais les scanners de rétine et les commandes gestuelles ne sont que des prémices de l’idée futuriste centrale du film: un système permettant de prédire quand et où la criminalité peut se produire afin de l’empêcher. Étant donné que le système repose sur des humains dotés de capacités précognitives, il est peu probable que cela se produise dans le monde réel, mais les algorithmes d’apprentissage automatique aident déjà les forces policières à identifier des points critiques pour prévenir les crimes avant qu’ils ne se produisent. La police de Dubaï est la dernière à avoir le soutien de l’Intelligence Artificielle, sous la forme du nouveau logiciel «Crime Prediction » de Space Imaging Middle East (SIME).
Le logiciel de SIME est dit fonctionner comme d’autres déjà en service: les algorithmes d’apprentissage machine sont nourris de données existantes et de renseignements à partir de bases de données de la police pour identifier des modèles que les analystes humains de crime pourraient rater. Le système peut ensuite utiliser ces modèles pour déterminer où la criminalité est susceptible de se produire prochainement et pour informer les forces de police où déployer le mieux les agents et autres ressources. L’idée n’est pas seulement d’aller là-bas et d’arrêter les gens au look suspect, mais d’utiliser une plus grande présence policière dans une zone pour dissuader le crime de se produire en premier lieu.
«Ce logiciel est particulièrement intelligent dans sa capacité à discerner avec précision les schémas complexes de comportement criminel dans des événements apparemment non liés et ensuite prédire la probabilité de réapparition», explique Spandan Kar, chef de la Division des systèmes d’information géographique (SIG) de SIME. « Nous sommes convaincus que ces analyses précises, combinées aux connaissances et aux instincts des policiers expérimentés, créeront une formidable force pour dissuader le crime ».
Cela semble impressionnant, mais est-ce que cela fonctionne ? Les services de police de diverses villes américaines utilisent depuis des années des systèmes comme Predpol, HunchLab et Series Finder, avec des résultats mitigés et des implications morales difficiles. Après avoir utilisé HunchLab pendant 12 mois, le département de police du comté de St Louis s’attend à une baisse des statistiques criminelles de cette année, mais les résultats sont difficiles à mesurer comme un effet direct de la police prédictive.
Non seulement les avantages ne sont pas clairs, mais des organisations comme l’Union américaine des libertés civiles (ACLU) soutiennent que les données comportent des préjugés raciaux intégrés et, selon une déclaration publiée en août, les systèmes «sont utilisés principalement pour concentrer davantage les activités d’application dans les communautés qui sont déjà sur-policés, plutôt que de répondre aux besoins humains … Les outils de police prédictifs menacent de fournir une impression trompeuse et imméritée d’impartialité pour une institution qui a désespérément besoin d’un changement fondamental.
SIME n’a pas donné beaucoup de détails sur comment son système fonctionne exactement ou s’il est construit pour surmonter certains de ces problèmes, mais d’autres comme HunchLab essaient activement d’être transparents sur leur fonctionnement interne. Il est intéressant de voir comment les outils de police prédictifs et les lois qui les entourent continuent de changer.
http://www.spaceimagingme.com/