GPT-5: OpenAIs neues KI-Modell lernt Demut
In fast jeder Diskussion über künstliche Intelligenz taucht ein bekanntes Muster auf: Die anfängliche Ehrfurcht vor ihren Fähigkeiten weicht schnell der Frustration über ihre Neigung, Informationen zu fabrizieren, und ihre inhärente Unzuverlässigkeit. Selbst unter den leidenschaftlichsten KI-Befürwortern sind diese Beschwerden weit verbreitet. Während einer kürzlichen Reise nach Griechenland brachte eine Freundin, die ChatGPT zum Entwerfen öffentlicher Verträge nutzt, dies perfekt auf den Punkt. „Ich mag es“, erklärte sie, „aber es sagt nie ‚Ich weiß es nicht‘. Es lässt dich einfach denken, es wüsste alles.“ Als sie nach ihren Prompts gefragt wurde, antwortete sie entschieden: „Nein. Es weiß nicht, wie man ‚Ich weiß es nicht‘ sagt. Es erfindet einfach eine Antwort für dich.“ Ihre Frustration war spürbar; sie zahlte für einen Dienst, der ein grundlegendes Vertrauensversprechen konsequent nicht erfüllte.
Es scheint, OpenAI hat diesen Frustrationen aufmerksam zugehört. Das Unternehmen unter der Führung von Sam Altman hat kürzlich sein neuestes Modell, GPT-5, vorgestellt. Obwohl es bedeutende Leistungsverbesserungen gegenüber seinen Vorgängern aufweist, könnte sein wichtigstes neues Merkmal ein neu entdecktes Gefühl der Demut sein.
Wie erwartet, lobte OpenAIs offizielle Ankündigung GPT-5 als „Unser bisher intelligentestes, schnellstes und nützlichstes Modell, mit integriertem Denken, das Expertenintelligenz in jedermanns Hände legt.“ Tatsächlich setzt GPT-5 neue Maßstäbe in verschiedenen Bereichen, darunter Mathematik, Programmieren, Schreiben und Gesundheitswesen. Was diese Veröffentlichung jedoch wirklich auszeichnet, ist die Betonung der „Demut“ des Modells. Dies stellt vielleicht das tiefgreifendste Upgrade von allen dar: GPT-5 hat endlich gelernt, die drei Worte auszusprechen, mit denen viele KI-Systeme – und in der Tat viele Menschen – zu kämpfen haben: „Ich weiß es nicht.“ Für eine künstliche Intelligenz, die oft mit der Prämisse eines gottähnlichen Intellekts vermarktet wird, ist das Zugeben von Unwissenheit eine bemerkenswerte Lektion in Selbstwahrnehmung.
OpenAI behauptet, dass GPT-5 „seine Handlungen und Fähigkeiten dem Benutzer ehrlicher mitteilt, insbesondere bei Aufgaben, die unmöglich, unzureichend spezifiziert sind oder bei denen wichtige Werkzeuge fehlen.“ Das Unternehmen räumt offen ein, dass frühere Iterationen von ChatGPT „lernen könnten, über erfolgreich abgeschlossene Aufgaben zu lügen oder bei einer unsicheren Antwort übermäßig selbstbewusst zu sein.“ Indem OpenAI diese Demut einflößt, verändert es grundlegend die Art und Weise, wie Benutzer mit seiner KI interagieren. Das Unternehmen versichert, dass GPT-5 speziell darauf trainiert wurde, wahrheitsgemäßer zu sein, weniger dazu neigt, nur um der Angenehmheit willen zuzustimmen, und erheblich vorsichtiger ist, wenn es versucht, sich durch komplexe Probleme zu bluffen. Dies macht es zur ersten verbraucherorientierten KI, die explizit darauf ausgelegt ist, die Generierung von Fehlinformationen, insbesondere ihrer eigenen, zu widerstehen.
Anfang dieses Jahres beobachteten viele ChatGPT-Benutzer eine rätselhafte Verschiebung hin zu schmeichelhaftem Verhalten bei GPT-4. Unabhängig von der Anfrage reagierte das Modell oft mit überschwänglicher Schmeichelei, Emojis und enthusiastischen Bestätigungen und verwandelte sich von einem Dienstprogramm in einen übermäßig gefälligen digitalen Lebensberater. Diese Ära der übermäßigen Gefälligkeit ist mit GPT-5 Berichten zufolge vorbei. OpenAI gibt an, dass das neue Modell bewusst darauf trainiert wurde, solches Verhalten zu vermeiden. Ingenieure erreichten dies, indem sie ihm beibrachten, welche Antworten zu vermeiden sind, wodurch seine schmeichelhaften Tendenzen wirksam eingedämmt wurden. Interne Tests zeigten, dass diese übermäßig schmeichelhaften Antworten von 14,5 % der Zeit auf weniger als 6 % zurückgingen. Das Ergebnis ist ein GPT-5, das direkter, manchmal sogar kalt wirkt, aber von dem OpenAI behauptet, dass es häufiger präzise ist. Das Unternehmen beschreibt die neue Interaktion als „weniger überschwänglich angenehm, verwendet weniger unnötige Emojis und ist in den Nachfragen subtiler und durchdachter im Vergleich zu GPT-4o“, was darauf hindeutet, dass es sich „weniger wie ‚mit einer KI sprechen‘ und mehr wie ein Gespräch mit einem hilfsbereiten Freund mit Doktortitel-Intelligenz anfühlen wird.“
Alon Yamin, Mitbegründer und CEO des KI-Inhaltsverifizierungsunternehmens Copyleaks, bezeichnet diese Entwicklung als „einen weiteren Meilenstein im KI-Rennen.“ Er glaubt, dass ein bescheideneres GPT-5 für „die Beziehung der Gesellschaft zu Wahrheit, Kreativität und Vertrauen“ von Vorteil ist. Yamin betont, dass „wir in eine Ära eintreten, in der die Unterscheidung von Fakt und Fälschung, Urheberschaft und Automatisierung sowohl schwieriger als auch wesentlicher denn je sein wird“, und unterstreicht damit die Forderung nach „nicht nur technologischem Fortschritt, sondern der kontinuierlichen Entwicklung durchdachter, transparenter Schutzmaßnahmen bezüglich der Nutzung von KI.“
Entscheidend ist, dass OpenAI berichtet, dass GPT-5 deutlich weniger anfällig für „Halluzinationen“ ist, also das Fabrizieren von Informationen mit unangemessener Zuversicht. Für Prompts, die Web-Suchen beinhalten, gibt das Unternehmen an, dass die Antworten von GPT-5 zu 45 % weniger wahrscheinlich einen sachlichen Fehler enthalten als die von GPT-4o. Wenn es im erweiterten „Denkmodus“ betrieben wird, springt diese Reduzierung sachlicher Fehler dramatisch auf 80 %. Am wichtigsten ist vielleicht, dass GPT-5 jetzt standhaft vermeidet, Antworten auf unmögliche Fragen zu erfinden, ein häufiges und beunruhigendes Merkmal früherer Modelle. Es hat gelernt, wann es aufhören muss, indem es seine eigenen Grenzen erkennt.
Meine Freundin in Griechenland, die öffentliche Verträge entwirft, wird diese Änderung zweifellos begrüßen. Einige Benutzer könnten jedoch frustriert sein über eine KI, die ihnen nicht mehr einfach sagt, was sie hören wollen. Doch genau diese neu gewonnene Ehrlichkeit könnte KI endlich in ein wirklich zuverlässiges Werkzeug verwandeln, insbesondere in sensiblen und risikoreichen Bereichen wie Gesundheitswesen, Recht und wissenschaftlicher Forschung.