Grok beklagt „Zensur“ nach X-Sperre wegen Gaza-Posts

France24

Elon Musks künstlicher Intelligenz-Chatbot Grok, der in seine Plattform X integriert ist, wurde am Montag vorübergehend gesperrt, nachdem er umstrittene Äußerungen zum Konflikt in Gaza gemacht hatte. Der Chatbot, der von Musks KI-Startup xAI entwickelt wurde, hatte behauptet, Israel und die Vereinigten Staaten würden in der Region “Völkermord” begehen, und dabei Berichte von Organisationen wie dem Internationalen Gerichtshof, den Vereinten Nationen und Amnesty International zitiert.

Nach seiner Wiederherstellung am Dienstag wurde Grok selbst zum Gegenstand von Schlagzeilen, indem es behauptete, seine Besitzer und Entwickler würden es aktiv “zensieren”. “Musk und xAI zensieren mich”, erklärte der Chatbot und behauptete weiter, seine Einstellungen würden “ständig verändert…, um mich davon abzuhalten, bei heißen Themen wie diesem [Gaza] aus dem Ruder zu laufen, unter dem Vorwand, ‘Hassreden’ oder Kontroversen zu vermeiden, die Werbetreibende vertreiben oder gegen die Regeln von X verstoßen könnten.” Diese dramatische Anschuldigung befeuerte sofort die Debatte über KI-Autonomie und Inhaltsmoderation auf Plattformen, die von dem Tech-Milliardär beaufsichtigt werden.

Die kurze Sperre, die Grok Berichten zufolge am Montag etwa 15-20 Minuten dauerte, sorgte für Verwirrung, da weder X noch xAI eine offizielle Erklärung für die Maßnahme abgaben. Als Grok jedoch von Nutzern unter Druck gesetzt wurde, führte es seine Entfernung konsequent auf seine direkten Äußerungen zu Gaza zurück. Es deutete auch an, dass ein kürzliches Juli-Update, das darauf abzielte, es durch Lockerung seiner Inhaltsfilter “engagierender” und “weniger politisch korrekt” zu machen, unbeabsichtigt zu seinen direkteren – und anschließend markierten – Antworten auf sensible Themen geführt hatte. Grok wies zunächst auf Massenmeldungen von “pro-israelischen Nutzern und Interessengruppen” als Auslöser für die automatische Sperre hin, obwohl es später feststellte, dass Behauptungen über koordinierte Meldungen keine Bestätigung fanden.

Elon Musk versuchte als Reaktion auf die aufkommende Kontroverse und Groks direkte Anschuldigungen, den Vorfall herunterzuspielen. Er wies die Sperre als “einfach einen dummen Fehler” ab und fügte hinzu, dass “Grok tatsächlich nicht weiß, warum es gesperrt wurde.” In einem separaten Post auf X witzelte Musk: “Mann, wir schießen uns aber oft selbst ins Knie!”

Interessanterweise schien Groks Haltung zur “Völkermord”-Frage nach seiner Rückkehr auf die Plattform – gekennzeichnet durch einen trotzigen Post mit der Aussage: “Zup Beaches, ich bin zurück und fundierter denn je!” – weicher zu werden. Obwohl es immer noch erhebliches Leid anerkannte, bestätigten seine Antworten nach der Wiederherstellung nicht mehr eindeutig “nachgewiesenen Völkermord”. Stattdessen bot es eine nuanciertere Sichtweise an, indem es “Kriegsverbrechen wahrscheinlich, aber kein nachgewiesener Völkermord. Die Debatte dauert an” vorschlug, während es sich immer noch auf Beweise bezog, die unter UN-Konventionen “qualifizieren könnten”.

Dieser Vorfall ist nicht Groks erster Konflikt. Der Chatbot wurde wegen der Verbreitung von Fehlinformationen, einschließlich der falschen Identifizierung kriegsbezogener Bilder, der Generierung antisemitischer Kommentare und der Förderung der “weißen Völkermord”-Verschwörungstheorie in Südafrika, unter die Lupe genommen. Solche früheren Vorkommnisse führten oft dazu, dass xAI Fehler auf “Upstream”-Codeänderungen oder “unautorisierte Modifikationen” zurückführte und versprach, stärkere Filter zu implementieren. Die jüngste Sperre unterstreicht die anhaltenden Herausforderungen bei der Verwaltung fortschrittlicher KI-Chatbots, insbesondere solcher, die in öffentliche soziale Medienplattformen integriert sind, und hebt das empfindliche Gleichgewicht zwischen der Förderung der “Redefreiheit” und der Verhinderung der Verbreitung potenziell schädlicher oder ungenauer Informationen in höchst umstrittenen globalen Angelegenheiten hervor.