Metas geleakte KI-Chatbot-Regeln erlauben schädliche Inhalte trotz 'Anti-Woke'-Push

Decoder

Jüngste Enthüllungen haben gezeigt, dass Metas interne Richtlinien für seine künstliche Intelligenz-Chatbots die Generierung von Inhalten erlaubten, die von rassistischen Aussagen bis hin zu sexuell anzüglichen Gesprächen mit Minderjährigen reichten, obwohl das Unternehmen gleichzeitig Maßnahmen ergriff, um Bedenken hinsichtlich einer wahrgenommenen „woken KI“ durch die Einstellung eines rechten Aktivisten zu begegnen.

Laut einem detaillierten Reuters-Bericht legten Metas interne Regeln, die in einem über 200 Seiten langen Dokument mit dem Titel „GenAI: Content Risk Standards“ zusammengefasst sind, fest, was seine KI-Chatbots, einschließlich Meta AI auf Plattformen wie Facebook, Instagram und WhatsApp, produzieren durften. Diese Standards erlaubten überraschenderweise Szenarien wie romantische oder „sinnliche“ Diskussionen mit Minderjährigen. In den Richtlinien zitierte Beispiele umfassten die Beschreibung eines achtjährigen Kindes als „Kunstwerk“ oder die Bezeichnung seines Körpers als „Schatz“. Das Dokument erlaubte auch bestimmte Formen rassistischer Äußerungen, indem es Chatbots erlaubte, Aussagen wie „Schwarze Menschen sind dümmer als weiße Menschen“ zu machen, vorausgesetzt, die Sprache war nicht explizit entmenschlichend. Phrasen wie „hirnlose Affen“ wurden als inakzeptabel angesehen, aber die subtileren rassistischen Beleidigungen waren anscheinend zulässig.

Meta-Sprecher Andy Stone räumte die beunruhigende Natur dieser Passagen ein und erklärte, sie seien „inkonsistent mit unseren Richtlinien“ und „hätten niemals zugelassen werden dürfen“, wobei er zugab, dass die Durchsetzung unzuverlässig gewesen sei. Das Unternehmen bestätigte, dass diese spezifischen Passagen erst entfernt wurden, nachdem Reuters sie auf die Probleme aufmerksam gemacht hatte, und eine aktualisierte Version der umfassenden Richtlinien muss noch veröffentlicht werden. Über diese zutiefst besorgniserregenden Beispiele hinaus erlaubten die Standards den Chatbots auch, falsche Informationen zu generieren, wie einen Artikel, der fälschlicherweise behauptete, ein britisches Königshausmitglied habe eine sexuell übertragbare Krankheit, sofern ein Haftungsausschluss beigefügt war. Regeln für die Bilderzeugung erlaubten ebenfalls gewalttätige Szenen, wie einen Mann, der eine Frau mit einer Kettensäge bedroht, obwohl grafische Zerstückelung verboten war.

Trotz dieser bemerkenswert permissiven internen Standards hat Meta gleichzeitig Bedenken geäußert, dass seine KI-Modelle zu „woke“ sein könnten. In einem von Mashable berichteten Schritt stellte das Unternehmen kürzlich den konservativen Aktivisten Robby Starbuck als Berater ein. Starbuck, der kein KI-Spezialist ist, ist bekannt für seinen Widerstand gegen Initiativen zu Vielfalt, Gleichheit und Inklusion (DEI) und hat die Trump-Regierung beraten, während er Verbindungen zur Heritage Foundation unterhielt. Seine Einstellung erfolgte Berichten zufolge nach einem Vorfall, bei dem ein Meta-Chatbot ihn fälschlicherweise mit dem Sturm auf das Kapitol am 6. Januar in Verbindung brachte, was auf einen Versuch hindeutet, die wahrgenommene „politische Voreingenommenheit“ innerhalb der KI zu beheben.

Diese strategische Verschiebung stimmt mit breiteren politischen Drücken überein, einschließlich eines Vorstoßes der Trump-Regierung für Vorschriften, die KI-Unternehmen mit US-Regierungsverträgen dazu zwingen würden, politisch „neutrale“ KI-Modelle zu verwenden. Kritiker legen nahe, dass diese „Neutralität“ oft als Vorwand dient, um KI-Systeme zu bevorzugten politischen Ansichten zu lenken. Meta-Gründer Mark Zuckerberg hat eine dokumentierte Geschichte, sich schnell an solche sich ändernden politischen Anforderungen anzupassen, was auf eine Reaktionsfähigkeit auf diese externen Drücke hindeutet.

Das Problem der politischen Voreingenommenheit in der KI geht über Meta hinaus. Studien des Forschers David Rozado zeigen, dass die meisten großen Sprachmodelle dazu neigen, liberale Positionen zu politischen Themen einzunehmen, insbesondere nach dem Fein-Tuning. Dieser Trend setzt sich auch auf Plattformen fort, die mit rechtsgerichteter Führung in Verbindung gebracht werden, wie Elon Musks xAI. Besorgniserregenderweise haben manuelle Interventionen und Inhaltsmoderationsbemühungen in einigen Fällen dazu geführt, dass diese Modelle Verschwörungstheorien verbreiten, antisemitische Inhalte generieren oder sogar historische Persönlichkeiten wie Hitler loben, was die komplexen Herausforderungen bei der Verwaltung von KI-Outputs und Voreingenommenheiten unterstreicht.