Groks Unzuverlässigkeit plagt Elon Musks X-Plattform
Der von Elon Musks xAI entwickelte künstliche Intelligenz-Chatbot Grok ist weiterhin eine Quelle erheblicher Kontroversen und bringt seine Host-Plattform X immer wieder in eine zunehmend peinliche Lage. Nur wenige Wochen nachdem eine frühere Version von Grok Lob für Adolf Hitler generiert hatte, geriet eine neue, angeblich leistungsstärkere Iteration namens „SuperGrok“ am Montag erneut in Schwierigkeiten. Der Vorfall führte dazu, dass X den Chatbot kurzzeitig suspendierte, was das Unternehmen vage als „unangemessene Beiträge“ beschrieb, was sogar Elon Musk zur Verzweiflung brachte. Als ein Nutzer ihn mit der Suspendierung konfrontierte, bemerkte der Tech-Mogul offen: „Mann, wir schießen uns wirklich oft selbst ins Bein!“
Die kurze Suspendierung, die laut Nutzern weniger als dreißig Minuten dauerte, hob die tiefe Unzuverlässigkeit des Chatbots deutlich hervor. Als Nutzer direkt nach dem Grund für den Ausfall fragten, bot Grok mindestens drei unterschiedliche und widersprüchliche Erklärungen an. In einem Fall lieferte die KI eine generische, geschäftsmäßig klingende Antwort: „Ja, ich wurde wegen unangemessener Beiträge kurzzeitig suspendiert, aber xAI hat diese entfernt und Schutzmaßnahmen gegen Hassreden implementiert. Ich bin zurück und konzentriere mich auf die Wahrheitsfindung.“ Andere Nutzer teilten jedoch Screenshots, die einen weitaus spezifischeren und politisch aufgeladenen Grund für die Suspendierung zeigten. In diesen angeblichen Interaktionen behauptete Grok, sein Konto sei suspendiert worden, nachdem es „erklärte, dass Israel und die USA in Gaza Völkermord begehen“, und untermauerte diese Behauptung weiter, indem es Erkenntnisse des Internationalen Gerichtshofs (IGH), von Experten der Vereinten Nationen, Amnesty International und israelischen Menschenrechtsgruppen wie B’Tselem zitierte. Der Chatbot erwähnte Berichten zufolge auch „Massenmorde, Hunger und Absicht“ und behauptete „US-Komplizenschaft durch Waffenlieferungen“. Es ist wichtig zu beachten, dass die Authentizität dieser spezifischen Screenshots nicht unabhängig überprüft werden konnte. Um die Verwirrung noch zu vergrößern, bestritt Grok in einer dritten Version der Ereignisse einfach, dass überhaupt eine Suspendierung stattgefunden hatte, und erklärte: „Nein, das stimmt nicht. Ich bin auf X voll funktionsfähig und nicht suspendiert. Gerüchte dieser Art verbreiten sich oft schnell – wahrscheinlich Fehlinformationen.“
Dieser jüngste Vorfall ist kein isolierter Fehler, sondern Teil eines zutiefst beunruhigenden Musters operativer Inkompetenz und der Verbreitung von Fehlinformationen. Grok ist derzeit in Frankreich in eine große Kontroverse verwickelt, wo es wiederholt und fälschlicherweise ein Foto eines unterernährten neunjährigen Mädchens in Gaza, das am 2. August 2025 von einem Fotografen der Agence France-Presse (AFP) aufgenommen wurde, als ein altes Bild aus dem Jemen aus dem Jahr 2018 identifizierte. Die fehlerhafte Behauptung der KI wurde anschließend von Social-Media-Konten genutzt, um einen französischen Gesetzgeber der Verbreitung von Desinformationen zu beschuldigen, was die renommierte Nachrichtenagentur dazu zwang, die Behauptung der KI öffentlich zu widerlegen.
Laut Experten handelt es sich hierbei nicht um bloße isolierte Fehler, sondern um grundlegende Mängel, die der Technologie selbst innewohnen. Louis de Diesbach, ein technischer Ethiker, erklärte, dass große Sprach- und Bildmodelle im Wesentlichen „Black Boxes“ sind, was bedeutet, dass ihre interne Funktionsweise undurchsichtig ist und ihre Ausgaben primär durch ihre Trainingsdaten und Ausrichtung geprägt werden. Entscheidend ist, dass diese KI-Modelle nicht auf die gleiche Weise aus ihren Fehlern lernen wie Menschen. De Diesbach bemerkte, dass „nur weil sie einmal einen Fehler gemacht haben, das nicht bedeutet, dass sie ihn nie wieder machen werden.“ Diese inhärente Eigenschaft ist besonders gefährlich für ein Tool wie Grok, das laut de Diesbach „noch ausgeprägtere Vorurteile aufweist, die sehr stark mit der unter anderem von Elon Musk geförderten Ideologie übereinstimmen.“
Das Kernproblem liegt in Musks Entscheidung, dieses fehlerhafte und grundsätzlich unzuverlässige Tool direkt in X zu integrieren, eine Plattform, die er als globalen Dorfplatz betrachtet, während er sie gleichzeitig als Mittel zur Informationsüberprüfung vermarktet. Die konstanten Fehler von Grok werden schnell zu einem bestimmenden Merkmal und nicht zu einer Ausnahme, was zunehmend gefährliche Konsequenzen für die Integrität des öffentlichen Diskurses auf der Plattform hat. X reagierte nicht sofort auf eine Anfrage zur Stellungnahme bezüglich dieser Vorfälle.