GPT-5 startet: OpenAI peilt 500 Mrd. $ Bewertung an & setzt auf offene Modelle

Aiwire

Die vergangene Woche markierte einen entscheidenden Moment für OpenAI, der sich mit einer Dreifaltigkeit bedeutender Ankündigungen entfaltete, die das aggressive Streben des Unternehmens nach künstlicher allgemeiner Intelligenz (AGI), seine aufkeimende Marktbewertung und ein erneuertes Engagement für Open-Source-Initiativen unterstreichen. Die Woche begann mit der Veröffentlichung von gpt-oss, einer neuen Familie von Open-Weight-Modellen, gefolgt von Berichten über Gespräche des Unternehmens mit Investoren über einen potenziellen Aktienverkauf, der es auf erstaunliche 500 Milliarden Dollar bewerten könnte. Den Abschluss dieser ereignisreichen Periode bildete die Enthüllung von GPT-5, OpenAIs mit Spannung erwartetem Flaggschiffmodell, das einen großen Sprung im anhaltenden Wettrüsten der großen Sprachmodelle signalisiert.

GPT-5, das erste große Update seit dem Debüt von GPT-4 im März 2023, wurde von CEO Sam Altman während eines Live-Stream-Launches vorgestellt, der es als “einen bedeutenden Schritt auf unserem Weg zur AGI” pries. Das neue Modell ist jetzt für ChatGPT Free-, Plus- und Team-Nutzer verfügbar, wobei die Einführung für Enterprise- und Education-Nutzer für die folgende Woche geplant ist. Entwickler erhalten über drei verschiedene API-Stufen Zugang zu GPT-5: GPT-5, GPT-5 Mini und GPT-5 Nano. Eine wichtige architektonische Änderung in GPT-5 betrifft ein Redesign der Routing-Logik von ChatGPT. Zuvor leitete das System Routineanfragen an schnellere Modelle und komplexe Aufgaben an langsamere, überlegtere Denkvarianten. Diese “Verzweigung” wurde mit GPT-5 eliminiert. Wie Mark Chen, Chief Research Officer von OpenAI, erklärte, verwendet das Modell nun einen internen Controller, um dynamisch die optimale “Denk”-Dauer zu bestimmen, um präzise Antworten ohne unnötige Latenz für einfachere Anfragen zu liefern.

Die bei der Markteinführung präsentierten Benchmark-Ergebnisse zeigten die beeindruckenden Fähigkeiten von GPT-5. Das Modell erreichte eine Punktzahl von 74,9% bei SWE-Bench, einem Maß für seine Fähigkeit, Fehler in Python-Codierungsprojekten zu beheben, und eine Punktzahl von 88% beim Aider Polyglot-Codierungstest. Es erreichte auch einen neuen Höchststand bei der multimodalen MMMU-Suite für visuelles Denken und übertraf GPT-4o um einen nicht offengelegten Vorsprung bei der AIME-Mathematikprüfung für die Oberstufe 2025. Mitarbeiter von OpenAI räumten ein, dass formale Evaluierungen nicht jedes reale Szenario abdecken können, betonten jedoch, dass diese höheren Punktzahlen mit den beobachteten internen Zuverlässigkeitsgewinnen übereinstimmen. Ein wesentlicher Schwerpunkt während des Trainings von GPT-5 war die Reduzierung von Sachfehlern und irreführendem Verhalten. Sicherheitsleiterin Sachi Desai stellte fest, dass das Modell bei internen Tests weniger Sachfehler aufweist und eine “sichere Vervollständigungsmethode” anstelle einer starren “Befolgen-oder-Ablehnen”-Regel anwendet. Bezüglich Täuschung hob Desai hervor, dass GPT-5 “deutlich weniger täuschend” sei als seine Vorgänger, insbesondere bei mehrdeutigen oder unzureichend spezifizierten Aufgaben. Bei potenziell gefährlichen Anfragen, wie Anweisungen für pyrogene Feuerwerke, bietet das Modell nun teilweise Anleitungen, verweist Benutzer auf Sicherheitshandbücher und erklärt transparent jede Ablehnung, um hilfreichen Kontext zu liefern, ohne Schaden zu ermöglichen.

Über die Kernmodellverbesserungen hinaus führt OpenAI Produkt- und API-Updates ein, die auf GPT-5 basieren. Dazu gehören ein natürlicherer Sprachmodus mit Live-Video-Kontext für kostenlose Nutzer, erweiterte Personalisierungsoptionen und Speicherfunktionen, die sich mit Diensten wie Gmail und Google Kalender verbinden können. Ein neuer Studienmodus bietet schrittweises Lernen. Für Entwickler führt GPT-5 benutzerdefinierte Tool-Aufrufe ein, die Klartext akzeptieren, optionale Präambeln vor der Tool-Nutzung, eine Kontrolle der Ausführlichkeit und eine minimale Denk-Einstellung, um Geschwindigkeit über Tiefe zu priorisieren. Das Unternehmen behauptet, dass GPT-5 auf dem Tau-Squared-Benchmark für Multi-Tool-Aufgaben bemerkenswerte 97% erreicht, eine erhebliche Steigerung von 49% nur zwei Monate zuvor. Während die Einführung für verschiedene Benutzerstufen bestätigt wurde, erfolgt die Bereitstellung von GPT-5 schrittweise, um Stabilität zu gewährleisten, was bedeutet, dass einige Benutzer eine verzögerte Verfügbarkeit erleben können.

Neben der Einführung von GPT-5 tauchten Berichte über die finanzielle Entwicklung von OpenAI auf. Bloomberg wies darauf hin, dass das Unternehmen in vorläufigen Gesprächen für einen Sekundärverkauf von Mitarbeiteraktien ist, der OpenAI auf etwa 500 Milliarden Dollar bewerten könnte. Bestehende Investoren, darunter Thrive Capital, sollen Berichten zufolge eine Beteiligung an diesen Käufen prüfen. Sollte dieser Deal zustande kommen, würde er die Buchbewertung des Unternehmens von zuvor 300 Milliarden Dollar, die während einer von SoftBank geführten Finanzierungsrunde von 40 Milliarden Dollar festgelegt wurde, erheblich erhöhen. Der Bericht stellte auch fest, dass OpenAI kürzlich zusätzliche 8,3 Milliarden Dollar als zweite Tranche dieser überzeichneten Finanzierung erhalten hat. Ein solcher Sekundärverkauf würde den Mitarbeitern entscheidende Liquidität verschaffen und könnte zur Talentbindung inmitten des intensiven Wettbewerbs von Konkurrenten wie Meta und Anthropic beitragen. Darüber hinaus berichtete Bloomberg, dass OpenAI und Microsoft ihre komplexe Beziehung neu verhandeln, einschließlich Microsofts Eigenkapitalbeteiligung und des Zugangs zu OpenAIs grundlegender Technologie, vor Ablauf ihres derzeitigen Deals im Jahr 2030. Diese Partnerschaft wurde als komplexes Zusammenspiel von Rivalität, strategischer Ausrichtung und Interdependenz charakterisiert. OpenAIs einzigartiges hybrides Gewinnmodell, das eine gemeinnützige Muttergesellschaft umfasst, die ein gewinnorientiertes Betriebsunternehmen beaufsichtigt, entwickelt sich weiter, mit laufenden Diskussionen über strukturelle Änderungen, einschließlich der Möglichkeit, dass der Betriebsarm zu einer Public Benefit Corporation wird, während die gemeinnützige Aufsicht erhalten bleibt. Diese strategische Debatte entfaltet sich vor dem Hintergrund eines schnellen Benutzerwachstums, wobei ChatGPT voraussichtlich diese Woche 700 Millionen wöchentlich aktive Benutzer erreichen wird, gegenüber 500 Millionen im März.

In einem Schritt, der sich an seinem Gründungsnamen orientiert, veröffentlichte OpenAI auch gpt-oss, eine neue Familie von Open-Weight-Modellen. Diese Modelle sind in Versionen mit 20 Milliarden und 120 Milliarden Parametern auf Hugging Face und GitHub unter der Apache 2.0 Lizenz verfügbar und stellen einen bedeutenden Schritt in Richtung breiterer Zugänglichkeit dar. OpenAI erklärte, dass gpt-oss-Modelle “ähnlich große offene Modelle bei Denkaufgaben übertreffen, starke Tool-Nutzungsfähigkeiten demonstrieren und für einen effizienten Einsatz auf Consumer-Hardware optimiert sind.” Sie wurden unter Verwendung einer Kombination aus Reinforcement Learning und Techniken trainiert, die von OpenAIs fortschrittlichsten internen Modellen inspiriert sind. Beide neuen Modelle verwenden eine Transformer-Architektur mit einem Mixture-of-Experts (MoE)-Ansatz, um die Anzahl der aktiven Parameter zu reduzieren, die zur Verarbeitung von Eingaben erforderlich sind, was die Effizienz erhöht. Das gpt-oss-120b-Modell, das eine 80-GB-GPU erfordert, ist für Rechenzentren und High-End-Desktops konzipiert und erreicht bei den Kern-Denk-Benchmarks nahezu Parität mit OpenAIs o4-mini. Das kleinere gpt-oss-20b, das nur 16 GB Speicher benötigt, kann auf den meisten Consumer-Desktops und Laptops ausgeführt werden, wodurch es für On-Device-Anwendungsfälle und lokale Inferenz geeignet ist und Ergebnisse liefert, die mit OpenAIs o3-mini vergleichbar sind. Die Open-Weight-Natur von gpt-oss bietet Forschern beispiellose Flexibilität, indem sie es ihnen ermöglicht, Modelle auf ihrer eigenen Hardware auszuführen, reproduzierbare Experimente durchzuführen, interne Abläufe zu überprüfen, Modelle auf domänenspezifischen Daten feinabzustimmen und Ergebnisse mit anderen Laboren zu vergleichen, während gleichzeitig der Datenschutz gewährleistet und Kosten gesenkt werden. Diese Transparenz, einschließlich der Möglichkeit, die vollständige Denkweise des Modells offenzulegen und die Denktiefe anzupassen, soll die reproduzierbare Forschung in Bereichen wie Moleküldesign und Klimamodellierung beschleunigen. OpenAI betrachtet die gpt-oss-Veröffentlichung als einen wichtigen Schritt hin zu einem “gesunden offenen Modell-Ökosystem”, das seine gehosteten Modelle ergänzt, indem es Entwicklern mehr Optionen für Forschung und Entwicklung bietet, mit dem letztendlichen Ziel, KI “weit zugänglich und für jedermann nützlich” zu machen.