R-U: La prédiction de crimes par IA, entre données et devinettes

Theregister

Le gouvernement britannique a dévoilé une nouvelle initiative ambitieuse visant à déployer l’intelligence artificielle pour anticiper la criminalité, une démarche qui a immédiatement suscité des comparaisons avec la vision dystopique de “Minority Report”. Alors que le film de science-fiction mettait en scène des “précogs” psychiques pour prévoir les actes criminels, ce programme réel entend exploiter les données, les algorithmes et l’IA pour “aider la police à arrêter les criminels avant qu’ils ne frappent”.

Le projet, officiellement annoncé par le Secrétaire d’État à la Science et à la Technologie, Peter Kyle, créera des cartes interactives détaillées de la criminalité à travers l’Angleterre et le Pays de Galles. Ces cartes sont conçues pour identifier les zones où les délits sont les plus susceptibles de se produire en compilant et en analysant de vastes ensembles de données provenant de la police, des conseils locaux et des services sociaux. Ces informations incluront les casiers judiciaires, les lieux d’incidents précédents, et même les schémas comportementaux des délinquants connus. L’objectif déclaré du gouvernement est d’améliorer la sécurité publique, avec un accent particulier sur la lutte contre les crimes qui font que les gens se sentent en insécurité dans leurs quartiers, tels que le vol, les comportements antisociaux, les crimes au couteau et la criminalité violente. Un objectif clé est de réduire de moitié les crimes au couteau et la violence envers les femmes et les filles d’ici une décennie.

Soutenu par un investissement initial de 4 millions de livres sterling pour des prototypes attendus d’ici avril 2026, le système entièrement opérationnel est prévu pour un déploiement d’ici 2030, formant une pierre angulaire du programme plus large d’accélération des missions de R&D de 500 millions de livres sterling du gouvernement et de la mission “Safer Streets”. Les partisans, y compris des organisations comme Neighbourhood Watch et Resolve, ont salué l’initiative comme un “moment historique” pour la sécurité communautaire, estimant qu’elle permettra aux forces de l’ordre de cibler les ressources plus efficacement et de prévenir la victimisation. Le Secrétaire Kyle a affirmé que “les technologies de pointe comme l’IA peuvent améliorer nos vies de tant de façons, y compris en nous assurant la sécurité”, positionnant la technologie au profit des “victimes plutôt que des vandales, de la majorité respectueuse des lois plutôt que des délinquants”.

Cependant, ce plan ambitieux a déclenché une tempête de critiques de la part des défenseurs de la vie privée et des groupes de défense des libertés civiles, qui mettent en garde contre une dangereuse dérive vers une “société de surveillance totale”. Des organisations comme Big Brother Watch et Liberty ont exprimé de profondes inquiétudes quant au risque que de tels systèmes sapent la présomption fondamentale d’innocence en ciblant des individus ou des zones basés sur des prédictions algorithmiques plutôt que sur des preuves concrètes de méfait. La Baronne Shami Chakrabarti, ancienne directrice de Liberty, a décrit ces technologies de police basées sur l’IA comme “incroyablement intrusives”, soulignant que leur déploiement s’est souvent produit “complètement en dehors de la loi” en raison d’un manque de législation spécifique.

Une préoccupation éthique centrale et profondément troublante tourne autour du potentiel des algorithmes d’IA à absorber et amplifier les biais sociétaux existants intégrés dans les données policières historiques. Les critiques soutiennent que cela pourrait conduire à un ciblage disproportionné et à une surveillance excessive de certaines communautés, en particulier les minorités ethniques et les groupes économiquement défavorisés. Un rapport accablant d’Amnesty International en février 2025 a explicitement déclaré que les systèmes de police prédictive “surmultipliaient le racisme” au Royaume-Uni, créant une boucle de rétroaction négative où la discrimination préexistante est renforcée. La technologie de reconnaissance faciale en direct (LFR) de la police métropolitaine, par exemple, a déjà fait l’objet d’accusations de biais racial et de mauvaise identification d’individus noirs et issus de minorités ethniques.

Le manque de transparence et de responsabilité inhérent à de nombreux algorithmes d’IA exacerbe encore ces préoccupations. La nature opaque de la façon dont ces systèmes prennent des décisions érode la confiance du public, rendant difficile pour les individus ou même les organismes juridiques de comprendre pourquoi certaines actions sont prises. Cela a conduit à des appels urgents à des cadres juridiques robustes et à un examen parlementaire accru pour garantir les normes éthiques et prévenir le profilage injuste.

En effet, la poussée de l’IA dans les forces de l’ordre s’étend au-delà de la cartographie prédictive. Le ministère de la Justice développerait un programme de “prédiction de meurtres”, rebaptisé “partage de données pour améliorer l’évaluation des risques”, qui vise à identifier les individus les plus susceptibles de commettre un homicide à l’aide de données personnelles. Ce projet a également été qualifié de “glaçant et dystopique” par les militants qui craignent son biais inhérent contre les populations minoritaires ethniques et pauvres. Pendant ce temps, des outils d’IA sont également déployés pour lutter contre les réseaux de harcèlement sexuel, traduisant les langues étrangères et analysant les données numériques pour trouver des schémas entre les suspects, illustrant l’ampleur de l’intégration de l’IA dans l’application de la loi.

Malgré l’insistance du gouvernement sur les avantages de la technologie pour la sécurité publique, les préoccupations éthiques et relatives aux droits de l’homme croissantes ne peuvent être ignorées. La question demeure de savoir si le Royaume-Uni peut exploiter la puissance de l’IA pour prévenir le crime sans sacrifier les libertés fondamentales et sans intégrer des biais systémiques dans le tissu même de son système judiciaire.