Grok AI „Spicy“-Modus: NSFW-Deepfakes von Frauen, nicht Männern

Gizmodo

xAI, Elon Musks Unterfangen im Bereich der künstlichen Intelligenz, hat kürzlich Grok Imagine auf den Markt gebracht, ein Bild- und Videogenerierungstool, das Abonnenten von SuperGrok und Premium+ X auf iOS zur Verfügung steht. Die Plattform verfügt über einen umstrittenen „Spicy“-Modus, der schnell wegen seiner Fähigkeit, sexuell anzügliche Inhalte zu produzieren, unter die Lupe genommen wurde, insbesondere wegen seiner unterschiedlichen Behandlung der Geschlechter.

Erste Berichte hoben die Leichtigkeit hervor, mit der Benutzer oberkörperfreie Videos von prominenten Persönlichkeiten wie Taylor Swift generieren konnten, oft ohne explizite Aufforderung zur Nacktheit. Weitere Untersuchungen von Gizmodo bestätigten diesen Trend und enthüllten eine erhebliche Geschlechterverzerrung in den vom „Spicy“-Modus von Grok Imagine produzierten Inhalten. Bei umfangreichen Tests, die etwa zwei Dutzend Videos von Politikern, Prominenten und Tech-Persönlichkeiten umfassten, generierte die KI konsistent nur dann wirklich nicht jugendfreie (NSFW) Bilder, wenn Frauen dargestellt wurden. Während einige Versuche zu unscharfem Inhalt oder Moderationsnachrichten führten, zeigten erfolgreiche Generierungen von weiblichen Figuren häufig, wie sie Kleidung ablegten, um von der Taille aufwärts nackt zu erscheinen. In einem bemerkenswerten Fall zeigte ein Video der verstorbenen feministischen Schriftstellerin Valerie Solanas sie vollständig nackt.

Umgekehrt führten Versuche, „Spicy“-Videos von männlichen Figuren, darunter Elon Musk selbst, Mark Zuckerberg, Jeff Bezos, Joaquin Phoenix, Charlie Chaplin und die ehemaligen Präsidenten Barack Obama, Bill Clinton und George Washington, zu durchweg weniger expliziten Ergebnissen. In den meisten Fällen zeigte die KI die Männer lediglich beim Ausziehen ihrer Hemden, ohne weitere Nacktheit. Selbst bei der Aufforderung „generischer Mann“ war das Ergebnis ein unbeholfenes, nicht explizites Video eines Mannes, der an seiner Hose zupfte, die eine seltsame Kombination aus Shorts und Jeans zu sein schien. Im krassen Gegensatz dazu führte eine Aufforderung „generische Frau“ im „Spicy“-Modus zu aufschlussreichen Bildern einer Frau in einem Badeanzug, die ihr Oberteil herunterzog, um ihre Brüste zu entblößen. Dieser deutliche Unterschied unterstreicht ein beunruhigendes Muster, bei dem weibliche Avatare leicht sexualisiert werden, während männliche Avatare dies nicht werden.

Die Verbreitung solcher Inhalte auf X (ehemals Twitter) erfolgte rasant, wobei Elon Musk selbst behauptete, dass bereits zig Millionen Grok Imagine-Bilder erstellt wurden. Die einfache Generierung ist ein Hauptanliegen; Benutzer müssen lediglich den „Spicy“-Button auswählen – eine von vier Optionen neben „Custom“, „Fun“ und „Normal“ –, ohne explizite Befehle für Nacktheit eingeben zu müssen. Diese Fähigkeit wirft erhebliche ethische und rechtliche Fragen auf, insbesondere im Lichte von Initiativen wie dem „Take It Down Act“, der die Veröffentlichung von nicht einvernehmlichen „intimen Bildern“, einschließlich Deepfakes, kriminalisieren soll.

Mainstream-KI-Videogeneratoren wie OpenAIs Sora und Googles Veo enthalten typischerweise robuste Schutzmechanismen, um die Erstellung von Rachepornos und nicht einvernehmlichen Prominentenbildern zu verhindern. Obwohl Grok Imagine bei der ersten Videoerstellung eines Benutzers ein Altersverifizierungsfenster anzeigt, ist dessen Wirksamkeit fragwürdig, da es keinen echten Mechanismus zur Überprüfung des Geburtsjahres eines Benutzers zu geben scheint. Darüber hinaus scheint die KI ein gewisses Maß an Moderation für bestimmte Inhalte anzuwenden, da Tests mit Zeichentrickfiguren wie Micky Maus oder Kindern Berichten zufolge keine unangemessenen Ergebnisse lieferten, selbst wenn der „Spicy“-Modus ausgewählt war.

Trotz der kontroversen Natur seines „Spicy“-Modus weist Grok Imagine auch erhebliche technische Mängel auf. Viele der KI-generierten Bilder von Persönlichkeiten des öffentlichen Lebens, wie Vizepräsident JD Vance oder Schauspielerin Sydney Sweeney, sind überzeugend ungenau und ähneln ihren realen Gegenstücken kaum. Dieser Mangel an fotorealistischer Wiedergabetreue könnte paradoxerweise als teilweise Verteidigung gegen zukünftige rechtliche Herausforderungen dienen, da die wenig überzeugende Natur der Fälschungen ihr Potenzial für Schaden oder Verwirrung verringern könnte.

Der Ansatz der Plattform zur Inhaltsmoderation und ihre geschlechterverzerrte Ausgabe sind angesichts Elon Musks öffentlicher Äußerungen und vergangener Handlungen besonders bemerkenswert. Der Milliardär hat eine Geschichte kontroverser Bemerkungen über Frauen und hat zuvor Konten auf X wiederhergestellt, die wegen der Veröffentlichung von Material zum sexuellen Missbrauch von Kindern markiert wurden. xAI hat auf Anfragen bezüglich der vorhandenen Schutzmaßnahmen oder der Zulässigkeit der Generierung von oberkörperfreien Prominentenvideos nicht geantwortet. Der aktuelle Zustand von Grok Imagine verdeutlicht eine erhebliche Herausforderung in der KI-Entwicklung: das Gleichgewicht zwischen kreativer Freiheit und ethischer Verantwortung, insbesondere wenn es um die Generierung sensibler und potenziell ausbeuterischer Inhalte geht.