AWS Raisonnement Automatisé : 99% de Précision contre les Hallucinations d'IA
Amazon Web Services (AWS) a annoncé la disponibilité générale des vérifications de Raisonnement Automatisé, une amélioration significative de son système de politiques Amazon Bedrock Guardrails. Cette nouvelle capacité répond directement au défi critique des « hallucinations » de l’IA — inexactitudes factuelles et sorties insensées — en permettant une validation robuste du contenu généré par les modèles de fondation par rapport à des connaissances de domaine spécifiques. L’objectif est de renforcer la confiance et la fiabilité des applications d’IA, en particulier dans les secteurs où la précision est primordiale.
Contrairement aux méthodes traditionnelles de raisonnement probabiliste, qui évaluent la probabilité d’un résultat, les vérifications de Raisonnement Automatisé emploient la logique mathématique et des techniques de vérification formelle. Cette approche établit des règles et des paramètres définitifs par rapport auxquels les réponses de l’IA sont rigoureusement vérifiées, offrant une assurance prouvable de précision. Le système affiche une précision de vérification impressionnante allant jusqu’à 99 %, et il aide également à détecter l’ambiguïté lorsqu’une sortie de modèle est ouverte à de multiples interprétations.
La version en disponibilité générale introduit plusieurs fonctionnalités clés conçues pour rationaliser la mise en œuvre et la gestion de ces vérifications. Les utilisateurs peuvent désormais traiter une documentation étendue, avec la prise en charge de documents volumineux allant jusqu’à 80 000 tokens — équivalent à environ 100 pages de contenu — en une seule construction. La validation des politiques a été simplifiée, permettant aux utilisateurs de sauvegarder et d’exécuter à plusieurs reprises des tests de validation, facilitant ainsi la maintenance à long terme. De plus, le système peut générer automatiquement des scénarios de test à partir de paramètres définis par l’utilisateur, ce qui permet de gagner du temps et d’assurer une couverture plus complète. Des retours de politique améliorés fournissent des suggestions en langage naturel pour l’amélioration des politiques, tandis que des paramètres de validation personnalisables permettent aux utilisateurs d’ajuster les seuils de score de confiance pour correspondre à leurs besoins opérationnels spécifiques.
En pratique, la mise en œuvre des vérifications de Raisonnement Automatisé implique l’encodage de règles d’un domaine de connaissance spécifique dans une politique de Raisonnement Automatisé. Cette politique sert ensuite de référence définitive pour valider le contenu généré par l’IA. Par exemple, une organisation pourrait créer une politique d’approbation de prêt hypothécaire pour s’assurer que les prédictions d’un assistant d’IA adhèrent strictement aux directives de prêt établies, empêchant les déviations des réglementations financières critiques. Ces politiques sont construites sur une base de règles, de variables et de types personnalisés, qui traduisent les documents de politique en langage naturel en logique formelle. Les règles définissent les relations entre les variables et les seuils, les variables représentent des concepts clés (comme l’acompte ou la cote de crédit), et les types personnalisés gèrent les valeurs non numériques ou non booléennes (telles que les différents types de prêts hypothécaires). Le système facilite des tests robustes, y compris la génération automatique de scénarios et les entrées de test manuelles, pour évaluer la qualité de la politique initiale et valider toute modification ultérieure.
Les vérifications de Raisonnement Automatisé sont conçues pour une intégration transparente au sein du cadre plus large d’Amazon Bedrock Guardrails. Elles peuvent être utilisées conjointement avec d’autres mesures de protection, telles que le filtrage de contenu et les vérifications de mise à la terre contextuelle, et appliquées aux modèles servis par Amazon Bedrock ou tout modèle tiers (comme OpenAI et Google Gemini) via l’API ApplyGuardrail. La capacité s’étend également aux frameworks d’agents, y compris Strands Agents et ceux déployés à l’aide d’Amazon Bedrock AgentCore.
Une application concrète et convaincante de cette technologie provient d’une collaboration entre AWS et PwC, axée sur les systèmes de gestion des pannes de services publics. Dans ce domaine critique, où chaque minute compte lors des interruptions de courant, des solutions d’IA sont déployées pour améliorer l’efficacité. Les vérifications de Raisonnement Automatisé sont instrumentales dans ce processus, permettant la génération automatique de protocoles conformes aux exigences réglementaires, la validation en temps réel des plans de réponse par rapport aux politiques établies, et la création de flux de travail structurés basés sur la gravité avec des objectifs de réponse définis. En évaluant les réponses générées par l’IA, le système peut identifier les sorties invalides ou ambiguës et guider leur affinement, ce qui conduit à des temps de réponse plus rapides, une précision améliorée et de meilleurs résultats pour les services publics et leurs clients. Matt Wood, responsable mondial et américain de la technologie commerciale et de l’innovation chez PwC, a souligné l’importance de cette collaboration, déclarant qu’elle représente « une percée dans l’IA responsable : des garanties évaluées mathématiquement, désormais intégrées directement dans Amazon Bedrock Guardrails », particulièrement vitales pour les industries fortement réglementées où la confiance est une exigence non négociable.
Les vérifications de Raisonnement Automatisé dans Amazon Bedrock Guardrails sont actuellement disponibles dans certaines régions AWS, notamment US East (Ohio, N. Virginia), US West (Oregon) et Europe (Francfort, Irlande, Paris). La tarification du service est basée sur la quantité de texte traité.