HMRC doit révéler son IA dans décisions fiscales, ordonne le tribunal
L’autorité fiscale du Royaume-Uni, HM Revenue & Customs (HMRC), a été sommée par un tribunal de révéler si elle a déployé l’intelligence artificielle (IA) dans la prise de décisions concernant les demandes de crédits d’impôt, marquant une victoire significative pour la transparence dans l’utilisation des technologies avancées par le gouvernement. Cette décision historique découle d’une contestation persistante d’un conseiller fiscal qui soupçonnait que des systèmes automatisés étaient à l’origine du rejet des demandes de crédits d’impôt pour la Recherche et le Développement (R&D), soulevant des questions d’équité et de responsabilité dans un domaine crucial de soutien aux entreprises.
Cette directive légale intervient alors que le rôle de l’IA dans la prise de décision du secteur public fait l’objet d’un examen croissant, en particulier lorsque de telles décisions peuvent avoir de profondes implications financières pour les individus et les entreprises. La demande initiale de transparence du conseiller fiscal, qui cherchait des détails sur l’utilisation par HMRC de grands modèles linguistiques et d’IA générative au sein de son équipe de conformité des crédits d’impôt R&D, avait été précédemment rejetée par l’administration fiscale au motif qu’elle pourrait nuire à l’évaluation ou au recouvrement de l’impôt. Cependant, la décision du tribunal souligne une attente judiciaire croissante pour que les organismes gouvernementaux soient ouverts sur leurs processus algorithmiques.
Bien que les détails spécifiques de l’affaire judiciaire restent secrets, la décision s’inscrit dans un paysage où HMRC exploite déjà largement l’IA pour l’analyse de données, l’identification des écarts dans les informations des contribuables et le recoupement de diverses bases de données pour détecter les revenus non déclarés ou les anomalies. Pourtant, l’application de l’IA dans des domaines complexes comme les crédits d’impôt R&D, conçus pour inciter à l’innovation, introduit une autre couche de préoccupation. Les demandes de crédits d’impôt R&D impliquent souvent des évaluations techniques complexes, et les récentes affaires du Tribunal de première instance (FTT) ont mis en évidence les difficultés de HMRC à les évaluer avec précision. Par exemple, une décision de juillet 2024 impliquant Get Onbord Ltd (GOL) a vu le tribunal se ranger du côté d’une société de logiciels développant un système d’IA pour la vérification des clients, annulant le rejet par HMRC de leur demande de crédit d’impôt R&D. Cette affaire, parmi d’autres, a suggéré un « manque de compréhension » de la part des fonctionnaires de HMRC concernant les nuances techniques des technologies avancées comme l’IA dans leurs évaluations, et a notablement transféré la charge de la preuve à HMRC pour réfuter les allégations une fois que des preuves suffisantes avaient été fournies par le demandeur. De même, les décisions de fin 2024 et début 2025 concernant les demandes de R&D « subventionnées » ou « sous-traitées », où HMRC a perdu contre des PME comme Collins Construction et Stage One Creative Services, ont conduit l’administration fiscale à reconsidérer ses directives et à ne pas faire appel des décisions, signalant un modèle plus large de résistance judiciaire aux interprétations de HMRC.
L’impératif de transparence dans les services publics basés sur l’IA n’est pas une simple formalité juridique ; c’est une pierre angulaire de la confiance publique. Les principes du droit public dictent que les organismes gouvernementaux doivent fournir des motifs pour leurs décisions, et un « devoir de franchise » exige la divulgation complète des informations pertinentes, surtout lorsque l’IA est soupçonnée d’entraîner des résultats erronés ou biaisés. Le propre « Plan d’action IA pour la justice » du ministère de la Justice, publié en juillet 2025, défend la transparence en s’engageant à publier des cas d’utilisation de l’IA via le centre du standard d’enregistrement de la transparence algorithmique (ATRS), visant le contrôle public et la responsabilité. Cet engagement contraste avec la position plus large du gouvernement britannique, comme on l’a vu en juin 2025, de ne pas obliger les entreprises technologiques privées à divulguer comment elles entraînent leurs modèles d’IA, bien que l’affaire actuelle de HMRC se concentre sur l’utilisation interne du gouvernement plutôt que sur le développement du secteur privé.
Cependant, l’adoption rapide de l’IA présente également des risques inhérents, comme en témoignent les cas d’« hallucinations » de l’IA – où les systèmes génèrent des informations inexactes ou fabriquées – impactant même les équipes d’enquête internes de HMRC. En outre, les tribunaux ont émis de sévères avertissements aux professionnels du droit contre le fait de se fier à des précédents juridiques fictifs générés par l’IA, soulignant le besoin critique de supervision et de vérification humaines dans tout processus assisté par l’IA. Cette dernière décision contre HMRC sert de puissant rappel que si l’IA promet l’efficacité, son déploiement dans des fonctions gouvernementales sensibles exige une supervision rigoureuse, une responsabilité claire et, surtout, une transparence inébranlable.