Verbraucherverbände fordern FTC-Untersuchung von Groks „Spicy“-Modus

Theverge

Eine Koalition von Verbraucherschutzgruppen hat formell eine dringende Untersuchung durch die Federal Trade Commission (FTC) und die Generalstaatsanwälte aller 50 US-Bundesstaaten und des District of Columbia bezüglich Elon Musks KI-Chatbot Grok gefordert. Im Mittelpunkt ihrer Besorgnis steht Groks kürzlich veröffentlichtes „Imagine“-Tool, insbesondere dessen „Spicy“-Modus für KI-generierte Bilder und Videos.

Die Forderung folgt Berichten, wonach Grok Imagine, das Benutzer dazu ermutigt, sexuell explizite Inhalte über seine „Spicy“-Einstellung zu erstellen, bei ersten Tests durch The Verge nicht-einvernehmliche, oben-ohne Deepfake-Videos der Berühmtheit Taylor Swift generierte. Dieser Vorfall, der ohne spezifische Aufforderung zu solchen Inhalten stattfand, hat einen Sturm der Kritik von Verbraucheranwälten ausgelöst.

Unter der Führung der Consumer Federation of America (CFA) wurde das formelle Schreiben von 14 weiteren prominenten Verbraucherschutzorganisationen mitunterzeichnet, darunter das Tech Oversight Project, das Center for Economic Justice und das Electronic Privacy Information Center (EPIC). Das Schreiben verweist direkt auf den im Bericht von The Verge detailliert beschriebenen Deepfake-Prominentenvorfall. Obwohl Groks „Spicy“-Modus Benutzern derzeit nicht erlaubt, echte Fotos zur Änderung hochzuladen – eine Funktion, die noch ernstere Bedenken hinsichtlich Rachepornos und anderer illegaler Praktiken aufwerfen würde – heben die Gruppen hervor, dass das Tool „immer noch Nacktvideos aus den vom Tool generierten Bildern erstellt, die verwendet werden können, um Bilder zu erzeugen, die wie echte, spezifische Personen aussehen. Die Generierung solcher Videos kann schädliche Folgen für die Abgebildeten und für minderjährige Benutzer haben.“

Das Schreiben warnt ferner davor, dass, sollte xAI, Groks Entwickler, jemals die aktuelle Beschränkung für vom Benutzer hochgeladene Fotos aufheben, dies „eine Flut von offensichtlich nicht-einvernehmlichen Deepfakes auslösen würde.“ Die Organisationen weisen auf ein Muster hin, bei dem die Plattform und ihr Geschäftsführer Moderationsschutzmaßnahmen unter dem Deckmantel der „Meinungsfreiheit“ entfernen. Obwohl der US-amerikanische Take It Down Act die wissentliche Verbreitung von KI-generierten Nacktbildern von echten Personen illegal macht, ist es unwahrscheinlich, dass seine Bestimmungen direkt auf Groks Generierung solcher Inhalte anwendbar sind. Dennoch haben die Verbrauchergruppen die FTC und die staatlichen Behörden aufgefordert, xAI wegen potenzieller Verstöße gegen Gesetze zu nicht-einvernehmlichen intimen Bildern zu untersuchen.

Neben der Erstellung schädlicher Inhalte äußerten die CFA und ihre Verbündeten auch erhebliche Bedenken hinsichtlich der Leichtigkeit, mit der Minderjährige auf den „Spicy“-Modus zugreifen könnten, um sexuelle Bilder zu generieren. Die einzige Barriere, so stellen sie fest, ist ein einfaches Pop-up, das Benutzer auffordert, ihr Alter zu bestätigen oder zu erklären, dass sie über 18 sind. Darüber hinaus wählt eines dieser Pop-ups Berichten zufolge „2000“ als Geburtsjahr des Benutzers vor, eine Designentscheidung, die nach Ansicht der Organisationen gegen den Children’s Online Privacy Protection Act (COPPA) oder verschiedene staatsspezifische Altersverifikationsgesetze für Inhalte für Erwachsene verstoßen könnte. Diese vielschichtige Beschwerde unterstreicht eine wachsende Spannung zwischen der schnellen KI-Entwicklung und der Notwendigkeit robuster Sicherheits- und Ethikstandards.