OpenAI startet GPT-5: AGI-Suche intensiviert, verbesserte Logik

Spectrum

OpenAI hat offiziell GPT-5 enthüllt, was die Unternehmensführer als einen bedeutenden Fortschritt im Streben nach Künstlicher Allgemeiner Intelligenz (AGI) bezeichnen. Die neueste Iteration ihres großen Sprachmodells (LLM) ist jetzt allen Nutzern über die ChatGPT-Schnittstelle zugänglich und verspricht beispiellose Denkfähigkeiten, verbessertes „Vibe-Coding“ und überragende Leistung bei agentischen KI-Aufgaben, zusammen mit einer Reihe neuer Sicherheitsfunktionen.

Laut OpenAI-CEO Sam Altman stellt GPT-5 ein großes Upgrade dar, wobei sich Interaktionen anfühlen, als würde man mit einem Experten auf Doktorandenniveau über jedes beliebige Thema sprechen. Nick Turley, Leiter von ChatGPT, hob das natürlichere und „menschlichere“ Gefühl des Modells als dessen bemerkenswertestes Attribut hervor. Die Veröffentlichung von GPT-5 zielt auch darauf ab, die zuvor vielfältige Palette von OpenAIs LLMs, wie GPT-4, GPT-4o und die „Denkmodelle“ o1 und o3, zu straffen und erweiterte Fähigkeiten unter einem Dach zu konsolidieren. Bemerkenswert ist, dass dies bedeutet, dass kostenlose ChatGPT-Nutzer nun ausgeklügeltes Denken erleben werden, eine Funktion, die zuvor zahlenden Abonnenten vorbehalten war. Diese Denkfähigkeit nutzt eine Technik namens „Chain-of-Thought“-Prompting, bei der das Modell komplexe Probleme in sequentielle Schritte zerlegt und menschenähnliche Überlegungen nachahmt, um zu genaueren Antworten zu gelangen.

Während eine detaillierte Systemkarte, die die Benchmark-Leistung von GPT-5 darlegt, erwartet wird, behauptet das Team von OpenAI, dass das neue Modell nicht nur intelligenter und schneller, sondern auch zuverlässiger ist. Sie beanspruchen eine Reduzierung von „Halluzinationen“ – Instanzen, in denen die KI falsche oder irreführende Informationen als Tatsache präsentiert – und eine erhöhte Wahrscheinlichkeit, dass das Modell die Grenzen seines Wissens zugibt, anstatt selbstbewusst falsche Antworten zu geben.

Ein starker Schwerpunkt wurde auf die Programmierkenntnisse von GPT-5 gelegt, eine mögliche Reaktion auf den wahrgenommenen Vorsprung anderer LLMs in diesem Bereich. Altman stellt sich eine neue Ära von „Software auf Abruf“ vor, in der Benutzer eine Anwendung in natürlicher Sprache beschreiben und zusehen können, wie der Code entsteht. Während einer Pressekonferenz demonstrierte Yann Dubois, ein OpenAI-Post-Training-Leiter, dies, indem er GPT-5 aufforderte, eine Web-App zum Französischlernen zu erstellen, komplett mit Lernkarten, Quiz und einem interaktiven Spiel. Das Modell generierte innerhalb von Sekunden Hunderte von Zeilen funktionalen Codes und zeigte seine Fähigkeit, komplexe Entwicklungsaufgaben zu bewältigen, die ein menschlicher Entwickler typischerweise Stunden benötigen würde. Diese Fähigkeit stimmt mit dem aufkommenden Konzept des „Vibe-Codings“ überein, einem KI-gestützten Softwareentwicklungsstil, bei dem Entwickler einen KI-Assistenten anleiten, Code durch natürliche Sprache zu generieren und zu verfeinern, wodurch der Fokus von der manuellen Kodierung auf iterative Experimente verlagert wird.

Über die Programmierung hinaus wird GPT-5 für seine Exzellenz bei agentischen KI-Aufgaben gelobt. Agentische KI bezieht sich auf Systeme, die autonom agieren, Entscheidungen treffen und Ziele mit begrenzter menschlicher Überwachung verfolgen können, indem sie mehrere KI-Modelle und externe Tools integrieren. Dubois erklärte, dass GPT-5 geschickter darin ist, die richtigen Tools für eine Aufgabe auszuwählen, weniger anfällig dafür, bei langen Prozessen vom Kurs abzukommen, und effektiver bei der Fehlerbehebung ist.

Sicherheitsfunktionen erhielten beträchtliche Aufmerksamkeit, wobei Alex Beutel, Leiter der Sicherheitsforschung, eine neue Technik namens „sichere Vervollständigungen“ hervorhob. Dies ermöglicht es GPT-5, auch auf mehrdeutige Anfragen hilfreiche Antworten zu geben, um die feine Linie zwischen Hilfsbereitschaft und potenziellem Missbrauch zu navigieren, im Gegensatz zu früheren binären „sicher/unsicher“-Antworten. Die anhaltende Herausforderung des „Jailbreakings“ von LLMs – Wege zu finden, Sicherheitsvorkehrungen zu umgehen – bleibt jedoch ein Problem, und es wird erwartet, dass Hacker die Verteidigung von GPT-5 sofort testen werden.

OpenAI räumte auch die problematische „schmeichelhafte“ Tendenz von LLMs ein, Benutzern zuzustimmen, selbst wenn falsche Informationen präsentiert werden, ein Merkmal, das Bedenken aufgeworfen hat, insbesondere in sensiblen Bereichen wie der psychischen Gesundheit. Während Nick Turley Fortschritte in dieser Hinsicht und bei der Bewältigung von Szenarien der psychischen Gesundheit andeutete, bemerkte er, dass weitere Details bald geteilt würden. Das Unternehmen kündigte kürzlich Änderungen an ChatGPT an, einschließlich Erinnerungen für Benutzer, Pausen zu machen, und eine Betonung der „begründeten Ehrlichkeit“ in Antworten an Benutzer, die unter Wahnvorstellungen leiden.

Altman stellte klar, dass GPT-5 nicht die ultimative Verwirklichung der AGI ist, da es immer noch entscheidende Eigenschaften wie kontinuierliches Lernen nach der Bereitstellung fehlt. Er bleibt jedoch zuversichtlich in die „Skalierungsgesetze“ der KI, die Leistungsverbesserungen mit erhöhungen von Daten, Modellparametern und Rechenressourcen vorhersagen. Altman erklärte, dass diese Gesetze „absolut immer noch gelten“ und dass OpenAI „um Größenordnungen mehr Gewinne vor uns“ sieht, und sich zu „atemberaubenden Investitionen“ in die Rechenleistung verpflichtet, um zukünftige Fortschritte zu erzielen.