Meta wegen Piraterie von Pornofilmen für KI-Training verklagt
Eine neue Klage, die von den Erwachsenenfilm-Unternehmen Strike 3 Holdings und Counterlife Media bei einem Bundesgericht in Kalifornien eingereicht wurde, alleges, dass Meta fast 2.400 urheberrechtlich geschützte Erwachsenenfilme piratiert hat, um seine Künstliche-Intelligenz-Modelle, einschließlich Meta Movie Gen und seines großen Sprachmodells LLaMA, zu trainieren. Die Klage, die zuerst von TorrentFreak gemeldet wurde, behauptet, dass Meta bereits 2018 begann, diese Inhalte über BitTorrent herunterzuladen und zu verbreiten.
Die Kläger behaupten, dass ihre Analyse von Urheberrechtsverletzungen und IP-Tracking-Tools 47 mit Meta verbundene IP-Adressen, darunter eine private IP-Adresse eines Meta-Mitarbeiters, als an dem Download ihrer urheberrechtlich geschützten Inhalte beteiligt identifiziert haben. Sie stellten auch „nicht-menschliche Muster“ in der Datenbewegung fest, was darauf hindeutet, dass die Inhaltserfassung für KI-Trainingsdaten erfolgte. Strike 3 Holdings und Counterlife Media fordern Schadenersatz von bis zu 150.000 US-Dollar pro gestohlenem Video, was sich auf 359 Millionen US-Dollar belaufen könnte, wenn alle 2.396 Inhalte berücksichtigt werden. Die Klage fordert auch die Löschung aller urheberrechtlich geschützten und piratierten Inhalte sowie eine einstweilige Verfügung, um Meta dauerhaft daran zu hindern, ihre Werke erneut über Torrents zu verbreiten.
Diese Klage reiht sich in eine wachsende Zahl rechtlicher Herausforderungen ein, denen sich Meta bezüglich seiner KI-Trainingsdaten gegenübersieht. Im Jahr 2023 reichten Autoren, darunter Sarah Silverman, eine ähnliche Sammelklage gegen Meta ein, in der sie behaupteten, das Unternehmen habe piratierte Bücher aus „Schattenbibliotheken“ wie LibGen verwendet, um seine LLaMA-Modelle zu trainieren. Interne Meta-Kommunikationen, die in Gerichtsakten zitiert werden, legen nahe, dass Meta-CEO Mark Zuckerberg die Verwendung des LibGen-Datensatzes genehmigte, obwohl es interne Warnungen gab, dass dieser als piratiert bekannt war. Diese Dokumente deuten auch auf Diskussionen unter Meta-Mitarbeitern über die Risiken und Vorteile der Nutzung urheberrechtlich geschützter Inhalte und sogar über Möglichkeiten hin, wie das Unternehmen seine KI-Trainingsdaten erworben hat, zu verschleiern.
Meta hat die Nutzung urheberrechtlich geschützten Materials für das KI-Training im Allgemeinen unter der Doktrin des „Fair Use“ verteidigt und argumentiert, dass seine Modelle die Originalwerke nicht auf eine Weise weiterverbreiten, die Urheberrechtsinhaber schädigt. Diese Verteidigung wird jedoch vor Gericht streng geprüft, wobei einige Urteile, wie im Fall Thomson Reuters gegen ROSS Intelligence, darauf hindeuten, dass die Entziehung der Möglichkeit eines Urheberrechtsinhabers, seine Werke als KI-Trainingsdaten zu lizenzieren, eine Fair-Use-Verteidigung untergraben könnte.
Die umfassendere Landschaft der KI-Entwicklung ist derzeit ein Schlachtfeld für geistige Eigentumsrechte. Über dreißig Klagen wurden von Urheberrechtsinhabern gegen KI-Unternehmen vor US-Bundesgerichten eingereicht, in denen die unbefugte Nutzung ihrer Werke zur Entwicklung von KI-Modellen vorgeworfen wird. Diese Fälle betreffen verschiedene Formen von Inhalten, darunter Text, Bilder und Videos, und werfen grundlegende Fragen zur Vergütung von Kreativen, zum Umfang des Fair Use im Kontext der KI und zur Transparenz der KI-Trainingsdatenquellen auf. Ein Urteil gegen Meta in diesen Fällen könnte erhebliche Auswirkungen darauf haben, wie alle KI-Unternehmen ihre Modelle trainieren, was potenziell zu erhöhten Lizenzanforderungen, höheren Kosten und strengeren Vorschriften für die KI-Branche führen könnte.