US-Staaten Vorreiter bei KI-Regulierung: Föderale Lücke Gefüllt
In Ermangelung einer umfassenden föderalen Aufsicht haben sich die Gesetzgebungen der US-Bundesstaaten als die primären Schlachtfelder für die Etablierung von Regelungen rund um künstliche Intelligenz-Technologien herauskristallisiert. Dieser dezentrale Ansatz gewann nach der entscheidenden Niederlage eines vorgeschlagenen Moratoriums für die KI-Regulierung auf Staatsebene im Kongress weiter an Schwung, was den Staaten effektiv den Weg ebnete, die aufstrebende Technologielandschaft weiterhin anzugehen. Tatsächlich hatte bis 2025 jeder US-Bundesstaat irgendeine Form von KI-bezogener Gesetzgebung eingeführt, wobei mehrere bereits Gesetze erlassen hatten. Vier spezifische Aspekte der KI haben die Aufmerksamkeit der staatlichen Gesetzgeber besonders gefesselt: ihr Einsatz in der Regierung, Anwendungen im Gesundheitswesen, Gesichtserkennungstechnologien und der Aufstieg generativer KI.
Die verantwortungsvolle Bereitstellung und Überwachung von KI sind insbesondere im öffentlichen Sektor von entscheidender Bedeutung. Prädiktive KI, die statistische Analysen zur Erstellung von Prognosen nutzt, hat bereits zahlreiche Regierungsfunktionen transformiert, von der Bestimmung der Anspruchsberechtigung für Sozialleistungen bis hin zu Empfehlungen für Strafurteile und Bewährung. Die weit verbreitete Einführung algorithmischer Entscheidungsfindung birgt jedoch erhebliche versteckte Kosten, einschließlich des Potenzials für algorithmische Schäden wie rassistische und geschlechtsspezifische Vorurteile. In Anerkennung dieser Risiken haben staatliche Gesetzgebungen Gesetzentwürfe eingeführt, die speziell auf den Einsatz von KI im öffentlichen Sektor abzielen und Transparenz, robusten Verbraucherschutz und eine klare Anerkennung der Bereitstellungsrisiken betonen. Beispielsweise schreibt Colorados Artificial Intelligence Act Transparenz- und Offenlegungspflichten sowohl für Entwickler als auch für Bereitsteller von KI-Systemen vor, die an folgenreichen Entscheidungen beteiligt sind. Montanas neues „Right to Compute“-Gesetz zwingt KI-Entwickler, Risikomanagement-Frameworks – strukturierte Methoden zur Bewältigung von Sicherheit und Datenschutz – für Systeme einzuführen, die in kritische Infrastrukturen integriert sind. Darüber hinaus haben einige Staaten, wie New York mit seinem Gesetzentwurf SB 8755, Schritte unternommen, um dedizierte Gremien mit Aufsichts- und Regulierungsbefugnissen einzurichten.
Auch der Gesundheitssektor hat eine Flut von Gesetzgebungsaktivitäten erlebt, wobei allein in der ersten Hälfte des Jahres 2025 34 Staaten über 250 KI-bezogene Gesundheitsgesetzentwürfe eingeführt haben. Diese Gesetzentwürfe fallen im Allgemeinen in vier Kategorien: Offenlegungspflichten für Entwickler und Bereitsteller von KI-Systemen, Verbraucherschutzmaßnahmen zur Verhinderung unfairer Diskriminierung und zur Sicherstellung von Möglichkeiten zur Anfechtung KI-gesteuerter Entscheidungen, Vorschriften für die Nutzung von KI durch Versicherer für Gesundheitsgenehmigungen und Zahlungen sowie Regeln für den Einsatz von KI durch Kliniker bei der Patientendiagnose und -behandlung.
Gesichtserkennungs- und Überwachungstechnologien stellen besondere Herausforderungen für den Datenschutz und Risiken der Voreingenommenheit dar, insbesondere angesichts der langjährigen Rechtsdoktrin in den USA, die die individuelle Autonomie vor staatlicher Einmischung schützt. Weit verbreitet in der prädiktiven Polizeiarbeit und nationalen Sicherheit, hat Gesichtserkennungssoftware nachweislich Vorurteile gegenüber Farbigen gezeigt. Eine wegweisende Studie der Informatiker Joy Buolamwini und Timnit Gebru ergab, dass solche Software dunklere Gesichter deutlich seltener korrekt identifizierte, was tiefgreifende Herausforderungen für schwarze Individuen und andere historisch benachteiligte Minderheiten hervorhebt. Diese Voreingenommenheit resultiert oft aus der Zusammensetzung der Trainingsdaten und dem Mangel an Vielfalt innerhalb der Teams, die diese Algorithmen entwickeln. Bis Ende 2024 hatten 15 US-Bundesstaaten Gesetze erlassen, um potenzielle Schäden durch Gesichtserkennung zu mindern, wobei einige Vorschriften von Anbietern verlangen, Bias-Testberichte zu veröffentlichen und ihre Datenmanagementpraktiken detailliert darzulegen, sowie eine menschliche Überprüfung bei der Anwendung dieser Technologien vorzuschreiben. Die realen Konsequenzen dieser Voreingenommenheit sind eklatant, wie die unrechtmäßige Verhaftung von Porcha Woodruff im Jahr 2023 zeigt, die ausschließlich auf fehlerhafter Gesichtserkennungstechnologie beruhte.
Die weit verbreitete generative KI hat ebenfalls Bedenken bei den staatlichen Gesetzgebern ausgelöst. Utahs Artificial Intelligence Policy Act forderte ursprünglich eine klare Offenlegung, wenn generative KI-Systeme zur Interaktion mit Personen verwendet wurden, die nach KI-Beteiligung fragten, obwohl der Geltungsbereich später auf Interaktionen beschränkt wurde, die Ratschläge oder die Sammlung sensibler Informationen beinhalteten. Letztes Jahr verabschiedete Kalifornien AB 2013, ein Gesetz zur generativen KI, das Entwickler dazu verpflichtet, auf ihren Websites öffentlich Informationen über die zur Schulung ihrer KI-Systeme verwendeten Daten offenzulegen, einschließlich „Grundmodellen“ – KI-Modelle, die auf riesigen Datensätzen trainiert und ohne weitere Schulung an verschiedene Aufgaben anpassbar sind. Da KI-Entwickler historisch gesehen zurückhaltend mit ihren Trainingsdaten waren, könnte eine solche Gesetzgebung Urheberrechtsinhaber, deren Inhalte zur Schulung von KI-Modellen verwendet werden, durch größere Transparenz stärken.
In Ermangelung eines kohärenten föderalen Rahmens haben die Staaten proaktiv versucht, die Regulierungslücke durch eigene legislative Bemühungen zu schließen. Während dieses entstehende Flickenteppich von Gesetzen die Compliance für KI-Entwickler erschweren könnte, bietet er eine entscheidende und dringend benötigte Aufsicht in Bezug auf Datenschutz, Bürgerrechte und Verbraucherschutz. Dieser staatlich geführte Fortschritt steht jedoch vor einem potenziellen Hindernis: dem „AI Action Plan“ der Trump-Regierung, der am 23. Juli 2025 angekündigt wurde. Der Plan besagt explizit: „Die Bundesregierung sollte nicht zulassen, dass KI-bezogene Bundesmittel an Staaten mit belastenden KI-Vorschriften geleitet werden.“ Diese Anweisung könnte die staatlichen Bemühungen zur Regulierung von KI potenziell behindern und sie zwingen, wesentliche Vorschriften gegen das Risiko des Verlusts wichtiger Bundesmittel abzuwägen.