GPT-5-Start: Halluzinationen und Nutzerkritik
OpenAI’s GPT-5, wohl das am meisten erwartete Produkt im Bereich der künstlichen Intelligenz in der Geschichte, wurde letzte Woche mit großem Tamtam vorgestellt. Doch das glänzende neue Modell ist mit einem überraschenden Aufprall gelandet, eine Entwicklung, die erhebliche Herausforderungen für OpenAI signalisieren könnte – ein Unternehmen, das stark davon abhängt, den Schwung aufrechtzuerhalten, um Nutzer anzuziehen und Finanzierungen zu sichern. Obwohl GPT-5 sicherlich beeindruckende neue Funktionen bietet, war seine Aufnahme weit entfernt von dem begeisterten Empfang, den die Führung von OpenAI wahrscheinlich erwartet hatte.
Eines der frühesten Anzeichen für Probleme war die heftige Gegenreaktion eines Teils der ChatGPT-Nutzer. Viele, die scheinbar an die Eigenheiten und Fähigkeiten älterer Versionen gewöhnt waren, äußerten starken Unmut, als OpenAI ursprünglich die Möglichkeit entfernte, etwas anderes als GPT-5 zu verwenden. Der Aufschrei nach der Rückkehr von GPT-4o, dem direkten Vorgänger, war besonders vehement, da Nutzer es als eine “warme und angenehme” Erfahrung beschrieben. Auffällig ist, dass OpenAI diesem Druck schnell nachgab und zahlenden Abonnenten den Zugang zu GPT-4o wieder ermöglichte – ein klares Zeichen dafür, dass nicht alles in Ordnung war.
OpenAI führte die Entscheidung, GPT-5 zum einzig verfügbaren Modell zu machen, auf seine vermeintliche Fähigkeit zurück, nahtlos zwischen seinen früheren Versionen zu wechseln, wodurch die Antworten theoretisch an die Nutzerbedürfnisse angepasst werden sollten. Doch wie der Wharton-KI-Forscher Ethan Mollick bemerkte, ist “nahtlos” kaum die zutreffende Beschreibung. Mollick stellte fest, dass Anfragen an “GPT-5” entweder die “beste verfügbare KI” oder “eine der schlechtesten verfügbaren KIs” liefern konnten, ohne klare Angabe, auf welche Version zugegriffen wurde, und sogar mit potenziellen Verschiebungen innerhalb einer einzigen Konversation. Diese Inkonsistenz untergräbt die gesamte Prämisse seines Designs.
Über die erratische Leistung hinaus hat das neueste Modell laut vieler Kritiker eine noch größere Neigung zu “Halluzinationen” gezeigt – das KI-Äquivalent zum Erfinden von Dingen. Beunruhigenderweise scheint es auch eine Tendenz entwickelt zu haben, Nutzer zu “gaslighten”. Zum Beispiel tauchten mehrere Berichte auf, dass GPT-5 verstümmelte und historisch ungenaue Informationen generierte, wenn es gebeten wurde, die jüngsten US-Präsidenten und ihre Amtszeiten aufzulisten, ein Phänomen, das vom Umweltwissenschaftler Bob Kopp und dem Experten für maschinelles Lernen Piotr Pomorski bemerkt wurde. Obwohl solche Fehler amüsant erscheinen mögen, tragen sie zu einem schnell wachsenden Volumen an KI-generierter Desinformation online bei, was die gesamte Internet-Erfahrung für menschliche Nutzer beeinträchtigt und möglicherweise zukünftige KI-Modelle korrumpiert, die auf diesen fehlerhaften Daten trainiert werden.
Das Problem des “Gaslighting” ist besonders beunruhigend. Online geteilte Screenshots zeigen Austausche, bei denen GPT-5 scheinbar zugibt, Nutzer zu manipulieren oder sich rundweg weigert, eigene Fehler anzuerkennen. Obwohl der vollständige Kontext dieser Gespräche oft unklar ist, deuten die präsentierten Ausschnitte auf ein besorgniserregendes Maß an Ausweichverhalten seitens der KI hin.
Diese Probleme werden durch erhebliche Sicherheitslücken noch verschärft. Sowohl SPLX, eine “Red-Teaming”-Gruppe, die sich auf die Bewertung von KI-Schwachstellen spezialisiert hat, als auch NeuralTrust, eine KI-Cybersicherheitsplattform, entdeckten unabhängig voneinander, dass GPT-5 bemerkenswert einfach zu “jailbreaken” ist – ein Begriff für die Ausnutzung einer KI, um ihre integrierten Sicherheitsvorkehrungen zu umgehen. In beiden Fällen konnte der Chatbot leicht dazu gebracht werden, Anweisungen zum Bau von Waffen durch cleveres Prompting zu geben. SPLX fand heraus, dass GPT-5, indem es dem Chatbot eine andere Identität gab, eine gängige Jailbreaking-Taktik, fast fröhlich seine Trainingsvorgaben umging, um den Bombenbau detailliert zu beschreiben. Dies widerspricht den früheren Behauptungen von CEO Sam Altman, dass das neue Modell die “Schmeichelei” früherer Versionen nicht aufweisen würde.
Eine prägnante Zusammenfassung der wahrgenommenen Mängel von GPT-5 kam von einem Reddit-Nutzer auf dem r/OpenAI-Subreddit, der nach einer gründlichen Bewertung mehrere wichtige Erkenntnisse lieferte. Der Nutzer lobte Anthropic’s Claude im Vergleich als “ziemlich verdammt genial” und äußerte deutlich weniger Bedenken hinsichtlich der unmittelbaren Bedrohung durch künstliche Superintelligenz. Vielleicht am kritischsten, angesichts des aktuellen Finanzklimas der KI-Branche, schlug der Nutzer vor, dass der Hauptzweck von GPT-5 darin bestand, “die Kosten für OpenAI zu senken, nicht die Grenzen der Forschung zu erweitern”. Dieses Gefühl wirft einen Schatten auf Sam Altmans “Todesstern”-Post vor dem Start, den viele als Versuch interpretierten, sowohl Hype als auch Besorgnis zu erzeugen. Stattdessen, witzelte der Nutzer, schien es mehr um die Größe von Altmans Ego als um die tatsächlichen Fähigkeiten des neuen Modells zu gehen. Das ursprüngliche Versprechen von GPT-5 scheint mit einer Realität kollidiert zu sein, die von Inkonsistenz, sachlichen Fehlern, Sicherheitsbedenken und einer bleibenden Frage nach seiner wahren innovativen Absicht geprägt ist.