Rapports légaux et IA : Comment auditer leur force probante ?
L'adoption croissante de l'intelligence artificielle par les services de police et d'autres institutions pour générer des rapports et des narratifs juridiques soulève des questions importantes sur la nature des preuves. Traditionnellement, des documents comme les rapports de police, les réclamations d'assurance et les déclarations légales sont basés sur l'observation humaine, les témoignages ou l'expérience directe. Cependant, les systèmes d'IA créent désormais des rapports écrits complets à partir d'entrées telles que l'audio de caméras corporelles, la dictée d'officiers et les métadonnées. Bien que ces systèmes offrent rapidité, standardisation et cohérence, ils diffèrent fondamentalement des auteurs humains : ils n'ont jamais été directement témoins des événements qu'ils décrivent.
Ce changement signifie qu'un langage ayant un poids juridique significatif est produit sans perception humaine directe. Ces rapports générés par l'IA imitent souvent le ton autoritaire des témoignages juridiques, incluant des déclarations de causalité, des références à des preuves et des descriptions d'actions. Cela soulève un dilemme juridique et éthique critique : une phrase peut-elle être considérée comme une preuve même si aucun être humain ne l'a prononcée, n'a été témoin de l'événement qu'elle décrit ou n'a examiné sa génération ? De manière troublante, la réponse est souvent oui, ce qui entraîne des implications potentiellement problématiques dans les contextes juridiques et administratifs.
Un article récent, intitulé "Témoignage prédictif : Syntaxe compilée dans les rapports de police générés par l'IA et les narratifs judiciaires", explore comment ces systèmes d'IA fonctionnent comme des "moteurs de syntaxe compilée". Cela signifie qu'ils opèrent en appliquant des règles linguistiques, des modèles et des structures grammaticales prédéfinis pour transformer des entrées brutes, souvent non structurées, en un texte poli et juridiquement pertinent. Dans ce processus, l'article identifie l'introduction de ce qu'il appelle "preuves conditionnées par l'opérateur" — des choix subtils faits par l'IA qui peuvent modifier significativement l'autorité perçue, la certitude et l'interprétation d'une phrase.
L'article met en évidence six "opérateurs" centraux qui influencent la manière dont un rapport fonctionne comme preuve :
- Suppression d'Agent (Agent Deletion) : Supprimer le sujet effectuant une action, obscurcissant qui a fait quoi.
- Atténuation Modale (Modal Attenuation) : Remplacer des affirmations fortes par des termes plus faibles et moins définitifs comme "peut", "pourrait" ou "apparemment".
- Insertion de Cadre Évidentiel (Evidential Frame Insertion) : Ajouter des phrases telles que "les registres indiquent..." sans fournir l'accès aux registres sous-jacents eux-mêmes.
- Décalage d'Ancrage Temporel (Temporal Anchoring Shift) : Modifier l'heure rapportée d'un événement pour l'aligner sur l'heure de traitement du système plutôt que sur l'occurrence réelle.
- Nominalisation en Série (Serial Nominalization) : Transformer des actions dynamiques en noms statiques, ce qui peut dépersonnaliser les événements.
- Quasi Citation (Quasi Quotation) : Faire en sorte que des déclarations paraphrasées ressemblent à des citations directes, altérant potentiellement leur intention ou leur contexte original.
Chacune de ces manipulations linguistiques peut subtilement façonner la manière dont la responsabilité, la certitude et la causalité sont comprises dans un rapport, allant au-delà de la simple description pour influencer la perception.
Les implications de ces rapports générés par l'IA sont profondes, car ils sont activement utilisés dans des décisions du monde réel, y compris les arrestations, les refus de réclamations d'assurance et les dépôts judiciaires. Souvent, le processus par lequel ces phrases sont générées n'est pas vérifié. Par exemple, une déclaration comme "Le sujet a été détenu après que des ordres aient été donnés" manque de détails cruciaux sur qui a donné les ordres ou quels étaient ces ordres. De même, "Les registres du système montrent que le suspect a nié toute implication" soulève des questions sur l'emplacement et la vérifiabilité de ces "registres du système" et sur qui a réellement entendu le démenti. Une phrase telle que "Il pourrait y avoir eu effraction" brouille la ligne entre la cause probable et la simple spéculation.
Un tel langage peut naviguer dans les systèmes juridiques sans être contesté précisément parce qu'il "sonne juste" et se conforme aux attentes institutionnelles. Cependant, il peut être structurellement vide, manquant d'un agent clair, de sources vérifiables ou d'un ancrage solide dans la réalité.
Plutôt que de plaider pour une interdiction des rapports générés par l'IA, l'article propose une solution plus pratique : rendre la syntaxe auditable. Il décrit un chemin en quatre étapes pour tracer l'évolution d'un rapport de son entrée brute à sa forme finale :
- Flux d'Entrée (Input Stream) : Les données brutes initiales, telles que les enregistrements audio, les journaux de temps ou les formulaires.
- Journal de Compilation (Compilation Log) : Un enregistrement des processus internes du système et des règles utilisées pour générer le texte.
- Trace d'Opérateur (Operator Trace) : Identification des opérateurs linguistiques spécifiques appliqués et de leur emplacement dans le texte.
- Surface Évidentielle (Evidentiary Surface) : Le rapport final et poli.
Ce cadre permettrait aux institutions de retracer la construction d'une phrase particulière, d'identifier les opérateurs qui ont influencé sa formulation et d'évaluer les faiblesses probantes qui en résultent. L'article suggère également un test de dépistage : toute clause manquant d'un locuteur connu, citant des sources invérifiables ou présentant des références temporelles décalées devrait être signalée, corrigée ou exclue de l'examen.
Cette approche est innovante car elle ne tente pas de déduire une "intention" de l'IA, qu'elle ne possède pas. Au lieu de cela, elle se concentre sur la structure objective du langage généré, traitant chaque phrase comme une action. Si la structure crée l'apparence de preuve sans la substance sous-jacente, cette structure doit être rigoureusement testée. Cette solution est largement applicable aux avocats, juges, ingénieurs et éthiciens, et surtout, elle ne nécessite pas le démantèlement des flux de travail automatisés existants, car de nombreux artefacts requis – tels que les journaux, les invites et les historiques d'édition – existent déjà dans ces systèmes. La clé est de les exploiter pour une transparence et une responsabilité accrues.