Gericht zwingt HMRC: KI-Einsatz bei Steuerentscheidungen offenlegen
Die britische Steuerbehörde, HM Revenue & Customs (HMRC), wurde von einem Gericht angewiesen offenzulegen, ob sie künstliche Intelligenz (KI) bei Entscheidungen über Steuergutschriften eingesetzt hat. Dies markiert einen bedeutenden Sieg für die Transparenz beim Einsatz fortschrittlicher Technologien durch die Regierung. Das wegweisende Urteil geht auf eine hartnäckige Anfechtung durch einen Steuerberater zurück, der vermutete, dass automatisierte Systeme hinter der Ablehnung von Forschungs- und Entwicklungs- (F&E) Steuergutschriften steckten, was Fragen zu Fairness und Rechenschaftspflicht in einem entscheidenden Bereich der Unternehmensförderung aufwarf.
Diese gerichtliche Anweisung erfolgt inmitten einer wachsenden Prüfung der Rolle von KI bei der Entscheidungsfindung im öffentlichen Sektor, insbesondere dort, wo solche Entscheidungen tiefgreifende finanzielle Auswirkungen für Einzelpersonen und Unternehmen haben können. Der ursprüngliche Transparenzantrag des Steuerberaters, der Details zur Verwendung von großen Sprachmodellen und generativer KI durch HMRC innerhalb seines F&E-Steuergutschriften-Compliance-Teams suchte, war zuvor von der Behörde mit der Begründung abgelehnt worden, dass dies die Einschätzung oder Erhebung von Steuern potenziell beeinträchtigen könnte. Die Gerichtsentscheidung unterstreicht jedoch eine zunehmende richterliche Erwartung an Regierungsstellen, offen über ihre algorithmischen Prozesse zu sein.
Während die spezifischen Details des Gerichtsverfahrens geheim bleiben, erfolgt das Urteil in einer Landschaft, in der HMRC bereits umfassend KI zur Datenanalyse, zur Identifizierung von Diskrepanzen in Steuerzahlerinformationen und zum Abgleich verschiedener Datenbanken einsetzt, um nicht deklarierte Einkünfte oder Anomalien zu erkennen. Doch die Anwendung von KI in komplexen Bereichen wie F&E-Steuergutschriften, die Innovationen fördern sollen, führt zu einer anderen Ebene der Besorgnis. F&E-Steueranträge beinhalten oft komplizierte technische Bewertungen, und jüngste Fälle vor dem First-tier Tribunal (FTT) haben die Herausforderungen von HMRC bei deren genauer Bewertung aufgezeigt. Zum Beispiel entschied ein Urteil vom Juli 2024, das Get Onbord Ltd (GOL) betraf, dass das Gericht auf der Seite eines Softwareunternehmens stand, das ein KI-System zur Kundenverifizierung entwickelte, und hob die Ablehnung ihres F&E-Steuergutschriftenantrags durch HMRC auf. Dieser Fall, neben anderen, deutete auf einen „Mangel an Verständnis“ der HMRC-Beamten bezüglich der technischen Nuancen fortschrittlicher Technologien wie KI in ihren Bewertungen hin und verlagerte die Beweislast bemerkenswerterweise auf HMRC, um Ansprüche zu widerlegen, sobald ausreichende Beweise vom Antragsteller erbracht wurden. Ähnlich haben Entscheidungen Ende 2024 und Anfang 2025 bezüglich „subventionierter“ oder „ausgelagerter“ F&E-Ansprüche, bei denen HMRC gegen KMU wie Collins Construction und Stage One Creative Services verlor, die Behörde dazu veranlasst, ihre Leitlinien zu überdenken und die Urteile nicht anzufechten, was ein breiteres Muster gerichtlicher Gegenwehr gegen die Interpretationen von HMRC signalisiert.
Die Notwendigkeit der Transparenz bei KI-gesteuerten öffentlichen Diensten ist nicht nur eine juristische Feinheit; sie ist ein Eckpfeiler des öffentlichen Vertrauens. Die Prinzipien des öffentlichen Rechts schreiben vor, dass Regierungsstellen Gründe für ihre Entscheidungen liefern müssen, und eine „Pflicht zur Offenheit“ erfordert die vollständige Offenlegung relevanter Informationen, insbesondere wenn der Verdacht besteht, dass KI zu fehlerhaften oder voreingenommenen Ergebnissen führt. Der eigene „KI-Aktionsplan für die Justiz“ des Justizministeriums, der im Juli 2025 veröffentlicht wurde, fördert die Transparenz, indem er sich zur Veröffentlichung von KI-Anwendungsfällen über den Algorithmic Transparency Recording Standard (ATRS) Hub verpflichtet, um öffentliche Kontrolle und Rechenschaftspflicht zu gewährleisten. Dieses Engagement steht im Gegensatz zur breiteren Haltung der britischen Regierung, wie im Juni 2025 zu sehen war, private Technologieunternehmen nicht dazu zu zwingen, offenzulegen, wie sie ihre KI-Modelle trainieren, obwohl sich der aktuelle HMRC-Fall auf die interne Nutzung durch die Regierung und nicht auf die Entwicklung im Privatsektor konzentriert.
Die schnelle Einführung von KI birgt jedoch auch inhärente Risiken, wie Beispiele von KI-„Halluzinationen“ – bei denen Systeme ungenaue oder fabrizierte Informationen generieren – zeigen, die sogar die internen Ermittlungsteams von HMRC betreffen. Darüber hinaus haben die Gerichte strenge Warnungen an Juristen ausgesprochen, sich nicht auf KI-generierte fiktive Rechtspräzedenzfälle zu verlassen, was die kritische Notwendigkeit menschlicher Aufsicht und Überprüfung in jedem KI-gestützten Prozess unterstreicht. Dieses jüngste Urteil gegen HMRC dient als starke Erinnerung daran, dass KI zwar Effizienz verspricht, ihr Einsatz in sensiblen Regierungsfunktionen jedoch eine strenge Aufsicht, klare Rechenschaftspflicht und, am wichtigsten, unerschütterliche Transparenz erfordert.