Meta AI-Training: Europas 7% Zustimmung löst Datenschutzstreit aus
Die Begeisterung von Tech-Giganten wie Meta, künstliche Intelligenz durch riesige Mengen von Nutzerdaten voranzutreiben, scheint bei den Individuen, deren Informationen diese Innovationen speisen, auf große Skepsis zu stoßen. Eine aktuelle Studie, die von der prominenten Datenschutzorganisation NOYB (None Of Your Business) in Auftrag gegeben wurde, zeigt, dass nur magere 7 Prozent der Europäer es akzeptabel finden, dass Meta seine KI-Modelle mit ihren Social-Media-Posts trainiert. Dieses Ergebnis unterstreicht eine erhebliche Diskrepanz zwischen den KI-Ambitionen von Unternehmen und den öffentlichen Datenschutz-Erwartungen, insbesondere innerhalb der strengen Regulierungslandschaft der Europäischen Union.
Die Studie, die vom Gallup-Institut im Juni 2025 unter 1.000 Facebook- und Instagram-Nutzern in Deutschland durchgeführt wurde, hob nicht nur die niedrige Zustimmungsrate hervor, sondern deckte auch eine besorgniserregende Wissenslücke auf: 27 Prozent der Befragten waren sich überhaupt nicht bewusst, dass Meta ihre Daten für das KI-Training nutzte. Max Schrems, der österreichische Datenschutzanwalt und Gründer von NOYB, einem langjährigen juristischen Gegner von Facebook, behauptete, dass Metas Ansatz die explizite Zustimmung umgehe und stattdessen auf ein Argument des “berechtigten Interesses” baue, das er als “absurd” und rechtlich unhaltbar ansieht. Schrems, dessen frühere rechtliche Herausforderungen zu erheblichen Verschiebungen in Metas Datenpraktiken und sogar zum Zusammenbruch von US-EU-Datenaustauschabkommen geführt haben, warnt, dass Meta den Gewinn über die Datenschutzrechte Hunderter Millionen europäischer Nutzer stellt.
Meta, das Facebook und Instagram besitzt, kündigte im April 2025 seine Absicht an, das Training seiner KI-Modelle unter Verwendung öffentlicher Inhalte, einschließlich Posts, Kommentare und Interaktionen mit Meta AI, von erwachsenen Nutzern in der gesamten Europäischen Union wieder aufzunehmen. Das Unternehmen erklärte, dass dieses Training entscheidend sei, um seinen generativen KI-Modellen zu helfen, europäische Kulturen, Sprachen und Geschichte besser zu verstehen und widerzuspiegeln. Meta verwies auch auf Konkurrenten wie Google und OpenAI und stellte fest, dass auch diese europäische Nutzerdaten für das KI-Training verwendet haben. Während Meta betont, dass private Nachrichten ausgeschlossen sind und ein Opt-out-Mechanismus verfügbar ist, wobei versprochen wird, alle Widerspruchsformulare zu berücksichtigen, argumentieren Datenschützer, dass dieser Opt-out-Ansatz unter der Datenschutz-Grundverordnung (DSGVO) der EU unzureichend ist.
Der Kern des Streits liegt in der Rechtsgrundlage für die Datenverarbeitung unter der DSGVO. Meta beruft sich auf “berechtigte Interessen” (Artikel 6 Absatz 1 Buchstabe f) als Rechtfertigung und umgeht so die Notwendigkeit einer expliziten “Opt-in”-Zustimmung (Artikel 6 Absatz 1 Buchstabe a). Obwohl der Europäische Datenschutzausschuss (EDSA) im Dezember 2024 eine Stellungnahme veröffentlichte, die bestätigte, dass “berechtigtes Interesse” grundsätzlich eine praktikable Rechtsgrundlage für das KI-Training sein kann, betonte er die Notwendigkeit einer Einzelfallprüfung und substanzieller Minderungsmaßnahmen zum Schutz der Nutzerrechte. Trotzdem ist NOYB der Ansicht, dass Metas Umsetzung unzureichend ist, insbesondere angesichts der Schwierigkeit, wenn nicht gar Unmöglichkeit, persönliche Daten wiederherzustellen, sobald sie in großen Sprachmodellen eingebettet sind.
Dieser andauernde Kampf verdeutlicht die größere Spannung zwischen technologischer Innovation und grundlegenden Datenschutzrechten im digitalen Zeitalter. Da das EU-KI-Gesetz, das im Juli 2025 in Kraft treten soll, darauf abzielt, die Transparenz bei KI-Trainingsdatensätzen zu erhöhen, verschärft sich die rechtliche und ethische Prüfung von Unternehmen wie Meta nur noch weiter. NOYB hat bereits Abmahnungen an Meta geschickt und ist bereit, Unterlassungsanordnungen oder sogar EU-weite Sammelklagen zu verfolgen, die möglicherweise kolossale Schäden für Nutzer fordern, deren Daten ohne deren klare Zustimmung verwendet werden. Das Ergebnis dieses Datenschutz-Showdowns wird zweifellos einen Präzedenzfall dafür schaffen, wie KI entwickelt und eingesetzt wird, nicht nur in Europa, sondern weltweit.