EU-KI-Gesetz: Neue Phase startet, beeinflusst GPAI-Modelle

Datanami

Das wegweisende KI-Gesetz der Europäischen Union ist in eine kritische neue Durchsetzungsphase eingetreten, die maßgeblich beeinflusst, wie Unternehmen künstliche Intelligenz-Systeme entwickeln und einsetzen, die mit europäischen Bürgern interagieren oder von ihnen genutzt werden. Dies markiert ein Jahr seit dem Start der schrittweisen Einführung der ehrgeizigen Gesetzgebung, die ursprünglich 2021 von der Europäischen Kommission vorgeschlagen und im März 2024 formell genehmigt wurde. Die Anfangsphase, die im Februar 2025 begann, verhängte direkte Verbote für bestimmte KI-Anwendungen, die als inakzeptabel riskant eingestuft wurden, wie das wahlloses Scrapen von Gesichtsbildern aus dem Internet oder von Videoüberwachungsfeeds.

Ab dem 2. August ist die zweite Phase der Durchsetzung aktiv und führt zwei zentrale Anforderungen ein. Erstens müssen alle EU-Mitgliedstaaten ihre nationalen Behörden einrichten, die für die Meldung und Überwachung von KI-Systemen zuständig sind. Zweitens, und vielleicht noch wichtiger für die globale Technologiebranche, beginnt in dieser Phase die Durchsetzung von Vorschriften für „Allzweck-KI“ (GPAI)-Modelle. Diese Kategorie umfasst grundlegende KI-Systeme wie große Sprachmodelle und fortschrittliche Computer-Vision-Systeme, die als Bausteine für eine Vielzahl von Anwendungen dienen.

Für Anbieter von GPAI-Modellen fordert das KI-Gesetz nun erhöhte Transparenz und Rechenschaftspflicht. Zu den wichtigsten Bestimmungen gehören die Offenlegung von Trainingsdaten und Nutzungslizenzen. Dies bedeutet, dass Anbieter eine detaillierte Zusammenfassung der zum Trainieren ihrer Modelle verwendeten Inhalte sowie einen überprüfbaren Nachweis der Zustimmung von Personen, die diese Trainingsdaten generiert haben, vorlegen müssen. Wie Thomas Regnier, Sprecher der Europäischen Kommission, betonte: „Die zum Trainieren eines Allzweck-KI-Modells, das den Nutzern in Europa zur Verfügung gestellt wird, verwendeten Quellen müssen klar dokumentiert werden. Wenn sie urheberrechtlich geschützt sind, müssen die Autoren vergütet werden und vor allem muss ihre Zustimmung eingeholt werden.“ Darüber hinaus müssen Anbieter von GPAI-Modellen, die als systemisches Risiko eingestuft werden, ihre Bewertungsmethoden darlegen, ihre Risikominderungsstrategien detailliert beschreiben und alle schwerwiegenden Vorfälle melden, die auftreten können.

Diese neuen Vorschriften gelten sofort für alle neuen GPAI-Modelle, die nach dem 2. August 2025 in Produktion genommen werden. Die Europäische Kommission hat jedoch eine einjährige Übergangsfrist für bestehende GPAI-Modelle gewährt, die bereits von großen Akteuren wie den US-Tech-Giganten Google, OpenAI, Meta und Anthropic sowie dem europäischen KI-Unternehmen Mistral in Produktion sind, bevor die vollständige Durchsetzung für sie beginnt. Die Nichteinhaltung des neuen Gesetzes zieht erhebliche finanzielle Strafen nach sich, die von 7,5 Millionen Euro (ca. 8,1 Millionen US-Dollar) oder 1 % des Unternehmensumsatzes bis zu 35 Millionen Euro (ca. 38 Millionen US-Dollar) oder 7 % des weltweiten Umsatzes reichen können. Diese erheblichen Bußgelder sind nun aktiv durchsetzbar.

Um die Einhaltung zu erleichtern, veröffentlichte die Europäische Kommission im vergangenen Monat den EU-KI-Verhaltenskodex, einen freiwilligen Rahmen, der Unternehmen bei ihren Verpflichtungen bezüglich KI-Sicherheit, Transparenz und Urheberrecht leiten soll. Während viele prominente US-Tech-Unternehmen und europäische KI-Firmen diesen Kodex unterzeichnet haben, haben einige Vorbehalte geäußert oder sich rundweg geweigert. Google unterzeichnete den Kodex beispielsweise, äußerte jedoch in einem Blogbeitrag Bedenken und erklärte: „Wir bleiben besorgt, dass das KI-Gesetz und der Kodex die Entwicklung und den Einsatz von KI in Europa verlangsamen könnten. Insbesondere Abweichungen vom EU-Urheberrecht, Schritte, die Genehmigungen verlangsamen, oder Anforderungen, die Geschäftsgeheimnisse offenlegen, könnten die Entwicklung und den Einsatz europäischer Modelle hemmen und die Wettbewerbsfähigkeit Europas beeinträchtigen.“ Meta, die Muttergesellschaft von Facebook, erklärte unterdessen ausdrücklich, dass sie den Verhaltenskodex nicht unterzeichnen werde. Joel Kaplan, Leiter des Büros für globale Angelegenheiten bei Meta, bekräftigte, dass „Europa in Bezug auf KI den falschen Weg einschlägt.“

Mit Blick auf die Zukunft wird die nächste Phase der Durchsetzung des KI-Gesetzes auf „Hochrisiko“-KI-Systeme abzielen, die die Europäische Kommission als solche definiert, die in sensiblen Bereichen wie Strafverfolgung, Bildung, kritischer Infrastruktur und Kreditwürdigkeitsprüfung eingesetzt werden. Organisationen, die diese Art von Systemen einsetzen, müssen vor dem Einsatz strenge Schutzmaßnahmen implementieren, einschließlich der Durchführung gründlicher Risikobewertungen, um sicherzustellen, dass sie keine Grundrechte verletzen, der Einrichtung robuster Überwachungsprotokolle, der Führung detaillierter Protokolle der KI-Systemaktivitäten und der Sicherstellung, dass das Supportpersonal ausreichend geschult ist. Der mehrphasige Ansatz der EU unterstreicht ihre Entschlossenheit, einen umfassenden Regulierungsrahmen für künstliche Intelligenz zu schaffen, der Innovation mit strengen ethischen und Sicherheitsstandards in Einklang bringt.