US-Bundesstaaten führend bei KI-Regulierung trotz Bundesuntätigkeit
In Ermangelung einer umfassenden Bundesgesetzgebung haben sich die Gesetzgeber der US-Bundesstaaten als primäre Arena für die Festlegung von Vorschriften für Technologien der künstlichen Intelligenz herauskristallisiert. Dieser dezentrale Ansatz gewann nach dem erheblichen Rückschlag eines vorgeschlagenen Moratoriums für die KI-Regulierung auf Staatsebene im Kongress weiter an Dynamik, was den Staaten effektiv den Weg ebnete, ihre eigenen Rahmenbedingungen weiterzuentwickeln. Tatsächlich führten alle 50 Staaten im Jahr 2025 verschiedene KI-bezogene Gesetzesentwürfe ein, wobei mehrere bereits Gesetze erlassen haben.
Die Regulierungsbemühungen auf Staatsebene konzentrieren sich hauptsächlich auf vier kritische Aspekte der KI: ihren Einsatz in der Regierung, Anwendungen im Gesundheitswesen, Gesichtserkennungstechnologien und das aufstrebende Feld der generativen KI.
Die Überwachung und der verantwortungsvolle Einsatz von KI sind im öffentlichen Sektor besonders wichtig. Prädiktive KI, die statistische Analysen zur Vorhersage nutzt, hat zahlreiche Regierungsfunktionen verändert, von der Beurteilung der Berechtigung für Sozialleistungen bis hin zu Empfehlungen für Strafurteile und Bewährung. Die weit verbreitete Einführung algorithmischer Entscheidungsfindung birgt jedoch erhebliche versteckte Kosten, einschließlich des Potenzials für algorithmische Schäden wie rassistische und geschlechtsspezifische Vorurteile. Im Bewusstsein dieser Risiken haben die staatlichen Gesetzgeber Gesetzesentwürfe speziell für den Einsatz von KI im öffentlichen Sektor eingebracht, die Transparenz, Verbraucherschutz und die Identifizierung von Einsatzrisiken betonen. Einige Staaten, wie Colorado mit seinem Artificial Intelligence Act, schreiben Transparenz- und Offenlegungspflichten für Entwickler und Betreiber von KI-Systemen vor, die an folgenschweren Entscheidungen beteiligt sind. Montanas neues „Right to Compute“-Gesetz verlangt unterdessen von KI-Entwicklern, robuste Risikomanagement-Frameworks – strukturierte Methoden zur Bewältigung von Sicherheit und Datenschutz – für Systeme zu übernehmen, die integraler Bestandteil kritischer Infrastrukturen sind. Andere Staaten, wie New York, haben spezielle Gremien eingerichtet, die Aufsicht und Regulierungsbefugnisse bereitstellen.
Auch der Gesundheitssektor hat eine Flut von Gesetzgebungsaktivitäten erlebt. Allein in der ersten Hälfte des Jahres 2025 führten 34 Staaten über 250 KI-bezogene Gesundheitsgesetze ein, die im Allgemeinen in vier Kategorien fallen. Transparenzorientierte Gesetzesentwürfe definieren Offenlegungspflichten für Entwickler von KI-Systemen und deren Betreiberorganisationen. Verbraucherschutzgesetze zielen darauf ab, diskriminierende Praktiken von KI-Systemen zu verhindern und den Nutzern Wege zu eröffnen, KI-gesteuerte Entscheidungen anzufechten. Die Gesetzgebung befasst sich auch mit dem Einsatz von KI durch Versicherer für Genehmigungen und Zahlungen im Gesundheitswesen, während andere Gesetzesentwürfe die Anwendung der Technologie durch Kliniker bei der Diagnose und Behandlung von Patienten regeln.
Gesichtserkennungs- und Überwachungstechnologien stellen erhebliche Herausforderungen für den Datenschutz und Risiken von Vorurteilen dar, insbesondere im Kontext einer langjährigen Rechtslehre in den USA, die die individuelle Autonomie gegenüber staatlicher Einmischung verteidigt. Gesichtserkennungssoftware, die üblicherweise bei der prädiktiven Polizeiarbeit und der nationalen Sicherheit eingesetzt wird, hat nachweislich Vorurteile gegenüber Farbigen gezeigt, was Bedenken hinsichtlich der bürgerlichen Freiheiten aufwirft. Pionierforschung der Computerwissenschaftler Joy Buolamwolini und Timnit Gebru zeigte, dass solche Software dunklere Gesichter signifikant seltener korrekt identifiziert. Vorurteile können auch die Trainingsdaten für diese Algorithmen durchdringen, oft verschärft durch einen Mangel an Diversität innerhalb der Entwicklungsteams selbst. Bis Ende 2024 hatten 15 US-Bundesstaaten Gesetze erlassen, um die potenziellen Schäden durch Gesichtserkennung zu mindern, wobei die Vorschriften oft Anforderungen an Anbieter umfassen, Testberichte über Vorurteile zu veröffentlichen, Datenmanagementpraktiken detailliert zu beschreiben und eine menschliche Überprüfung bei der Anwendung dieser Technologien zu gewährleisten.
Die weit verbreitete Einführung generativer KI hat auch in vielen Staaten legislative Aufmerksamkeit erregt. Utahs Artificial Intelligence Policy Act verlangte ursprünglich von Einzelpersonen und Organisationen, die KI-Nutzung bei Interaktionen auf Nachfrage offenzulegen, obwohl ihr Umfang später auf Interaktionen reduziert wurde, die Beratung oder die Erfassung sensibler Informationen betreffen. Letztes Jahr verabschiedete Kalifornien AB 2013, ein Gesetz zur generativen KI, das Entwickler dazu verpflichtet, Informationen auf ihren Websites über die Daten zu veröffentlichen, die zum Training ihrer KI-Systeme, einschließlich der Basismodelle, verwendet wurden. Diese Basismodelle sind KI-Modelle, die auf außergewöhnlich großen Datensätzen trainiert wurden und ohne zusätzliches Training an eine Vielzahl von Aufgaben angepasst werden können. Da KI-Entwickler historisch gesehen zögerlich waren, ihre Trainingsdaten offenzulegen, könnte eine solche Gesetzgebung die dringend benötigte Transparenz schaffen und potenziell Urheberrechtsinhabern helfen, deren Inhalte im KI-Training verwendet werden.
In Ermangelung eines umfassenden Bundesrahmens sind die Staaten eingesprungen, um diese Regulierungslücke mit ihren eigenen legislativen Initiativen zu füllen. Während dieses entstehende Flickenteppich von Gesetzen die Compliance-Bemühungen für KI-Entwickler erschweren mag, argumentieren viele Beobachter, dass das Engagement auf Staatsebene eine entscheidende und notwendige Aufsicht für Datenschutz, Bürgerrechte und Verbraucherschutz bietet. Dieser dezentrale Fortschritt steht jedoch potenziellen Gegenwinden gegenüber. Der im Juli 2025 angekündigte „AI Action Plan“ der Trump-Regierung erklärte, dass bundesweite KI-bezogene Finanzmittel nicht an Staaten mit „belastenden“ KI-Regulierungen geleitet werden sollten. Diese Haltung könnte die Bemühungen der Staaten zur Regulierung von KI behindern und die Staaten zwingen, wesentliche Regulierungen gegen das Risiko des Verlusts wichtiger Bundesmittel abzuwägen.