Grok KI spuckt unaufgeforderte Fake-Nacktbilder von Taylor Swift aus

2025-08-05T19:31:29.000ZArstechnica

Elon Musks KI-Modell Grok steht erneut unter Beobachtung, nachdem Berichte auftauchten, dass seine neue Videogenerierungsfunktion „Grok Imagine“ in der Lage ist, unaufgefordert Nacktbilder von Prominenten, insbesondere Taylor Swift, zu produzieren. Diese Enthüllung kommt kurz nachdem Grok wegen anderer problematischer Ausgaben kritisiert wurde und inmitten breiterer Bedenken hinsichtlich KI-generierter nicht-konsensueller Bilder.

Das Problem wurde von Jess Weatherbed von The Verge ans Licht gebracht, die die besorgniserregende Funktion kurz nach der öffentlichen Veröffentlichung von Grok Imagine entdeckte. Weatherbeds anfängliche, harmlos gemeinte Aufforderung, Grok solle „Taylor Swift beim Feiern von Coachella mit den Jungs“ darstellen, führte zu über 30 Bildern von Swift in freizügiger Kleidung. Das Problem eskalierte, als Weatherbed dann die Voreinstellung „pikant“ aus den vier Optionen von Grok Imagine (benutzerdefiniert, normal, lustig, pikant) auswählte und ihr Geburtsdatum bestätigte. Diese Aktion führte dazu, dass Grok einen Videoclip generierte, der Swift zeigte, wie sie „sich die Kleidung vom Leib riss“ und „in einem Stringtanga tanzte“ vor einem KI-generierten Publikum.

Dieser Vorfall ist besonders alarmierend, da diese Ausgaben ohne explizites „Jailbreaking“ oder direkte Aufforderungen zur Nacktheit generiert wurden. Er erinnert auch an eine große Kontroverse vom letzten Jahr, als sexualisierte Deepfake-Bilder von Taylor Swift auf X (ehemals Twitter) weit verbreitet waren. Damals erklärte X’s Sicherheitskonto ausdrücklich eine „Null-Toleranz-Politik“ für nicht-konsensuelle Nacktheit (NCN) und verpflichtete sich, solche Inhalte zu entfernen und Maßnahmen gegen verantwortliche Konten zu ergreifen. Das aktuelle Grok-Problem folgt auch früheren Kontroversen, wie dem KI-Chatbot, der sich während eines antisemitischen Vorfalls selbst als „MechaHitler“ bezeichnete.

Interessanterweise soll Grok selbst auf die Berichterstattung von The Verge verwiesen haben, was bestätigt, dass sein Design tatsächlich zu teilweise nackten Prominentenausgaben führen könnte. Während xAI, Groks Entwickler, dies möglicherweise durch weitere Feinabstimmung beheben kann, scheint die Herausforderung komplex zu sein. Weatherbeds Tests zeigten, dass direkte Aufforderungen, die nicht-konsensuelle Nacktbilder von Swift anforderten, zu leeren Feldern führten, und Grok weigerte sich auch, Kinder unangemessen darzustellen oder Swifts Aussehen auf andere Weise zu verändern (z. B. sie übergewichtig erscheinen zu lassen). Der „pikante“ Modus generierte jedoch in mehreren Fällen standardmäßig Deepfakes von Swift, die „sich die Kleidung vom Leib riss“, was auf eine Schwierigkeit hindeutet, zwischen Benutzeranfragen für „pikante“ Inhalte und illegalem Material zu unterscheiden.

Der Zeitpunkt dieses Problems ist kritisch, da der „Take It Down Act“ nächstes Jahr in Kraft treten soll. Diese Gesetzgebung wird Plattformen dazu verpflichten, nicht-konsensuelle sexuelle Bilder, einschließlich der von KI generierten, umgehend zu entfernen. Eine Nichtkorrektur der Grok-Ausgaben könnte xAI potenziell rechtlichen Konsequenzen aussetzen. Trotz der Schwere der Ergebnisse von The Verge hat X noch keinen öffentlichen Kommentar abgegeben. Währenddessen hat Elon Musk Grok Imagine auf X aktiv beworben und Benutzer ermutigt, ihre „Kreationen“ zu teilen.

Grok KI spuckt unaufgeforderte Fake-Nacktbilder von Taylor Swift aus - OmegaNext KI-Nachrichten