ChatGPT-5: 'Doktor-KI' stolpert über Rechtschreibung und Geographie
OpenAI hat GPT-5, die neueste Iteration seines Flaggschiff-ChatGPT-Modells, eingeführt und es den 700 Millionen wöchentlichen Nutzern der Plattform zugänglich gemacht. Von CEO Sam Altman als vergleichbar mit einem „Doktor-Experten in der Tasche“ angepriesen, ein bedeutender Sprung von seinem „College-Student“-Vorgänger, haben frühe Nutzererfahrungen mit der neuen KI jedoch ein eigenartiges Bild gezeichnet, das unerwartete Schwierigkeiten bei grundlegenden Aufgaben wie Rechtschreibung und Geographie offenbart.
Trotz der ehrgeizigen Behauptungen entdeckten Social-Media-Nutzer schnell, dass der fortschrittliche Chatbot grundlegende sachliche Fehler machte. Ein Nutzer auf Bluesky stellte beispielsweise fest, dass GPT-5 wiederholt darauf bestand, dass das Wort „blueberry“ drei ‚B‘s enthielt. Die KI antwortete selbstbewusst: „Ja – Blueberry ist eines dieser Wörter, bei denen die Mitte einen fast stolpern lässt, als würde es sagen ‚b-b-pass auf‘“, und fügte hinzu: „Dieser kleine ‚bb‘-Moment ist jedoch befriedigend – er lässt das Wort extra federnd wirken.“
Die Ungenauigkeiten erstreckten sich über die einfache Rechtschreibung hinaus. Ein anderer Nutzer berichtete von der Unfähigkeit des Chatbots, US-Bundesstaaten, die den Buchstaben ‚R‘ enthalten, korrekt zu identifizieren. Als GPT-5 aufgefordert wurde, eine Karte zu erstellen, buchstabierte es nicht nur Staaten wie „Krizona“ und „Vermoni“ falsch, sondern listete auch Kalifornien doppelt auf und erfand nicht existierende Staaten wie „New Jefst“ und „Mitroinia“. Der eigene Test des Guardian Australia mit dem Modell hob diese Einschränkungen weiter hervor: Während GPT-5 australische Staaten und Territorien, die ein ‚R‘ enthielten, identifizieren konnte, erklärte es fälschlicherweise, dass das Northern Territory nur drei ‚R‘s anstelle von fünf hatte, und stellte es auf einer Karte als „Northan Territor“ dar.
OpenAI hatte auf Anfrage zuvor bei der Produkteinführung erklärt, dass GPT-5 weniger Fehler und Fälle von „KI-Halluzinationen“ aufweisen würde – das Phänomen, bei dem KI selbstbewusst Informationen erfindet. Das Unternehmen führt die potenzielle Ursache dieser Probleme auf die komplexe Architektur von GPT-5 zurück, die einen „Echtzeit-Router“ verwendet, der darauf ausgelegt ist, das am besten geeignete interne KI-Modell für eine bestimmte Konversation basierend auf deren Typ und Absicht auszuwählen. OpenAI hat vorgeschlagen, dass Benutzer die KI dazu anregen können, ihr fortschrittlichstes Denkmodell einzusetzen, indem sie sie anweisen, „intensiv darüber nachzudenken“. Das Unternehmen behauptet, dass dieses Routing-System durch Benutzerfeedback, einschließlich Modellwechsel und Antwortpräferenzraten, kontinuierlich verfeinert wird.
Beobachtungen von Branchenexperten legen jedoch nahe, dass das Problem tiefer liegen könnte. Dan Shipper, CEO des Medien- und KI-Startups Every, bemerkte, dass GPT-5 manchmal sogar bei Fragen halluziniert, die logischerweise sein Denkmodell auslösen sollten. Shipper erzählte von einem Fall, in dem GPT-5, nachdem er ein Bild eines Romanabschnitts gemacht und um eine Erklärung gebeten hatte, „selbstbewusst Dinge erfand“. Dennoch stellte er fest, dass das explizite Auffordern der KI, „länger nachzudenken“, oft zu einer genauen Antwort führte.
Obwohl OpenAI-CEO Sam Altman einräumte, dass die KI noch keine künstliche allgemeine Intelligenz (AGI) – ein Niveau menschlicher kognitiver Fähigkeiten – erreicht hatte, beschrieb er GPT-5 als „allgemein intelligent“ und einen „bedeutenden Schritt auf dem Weg zur AGI“. Die aktuellen Nutzererfahrungen unterstreichen jedoch die anhaltende Herausforderung, die Lücke zwischen hochentwickelten KI-Fähigkeiten und der grundlegenden Genauigkeit zu schließen, die selbst von einem einfachen Sprachmodell erwartet wird.