OpenAI veröffentlicht Open-Weight-KI-Modelle: Strategiewechsel
OpenAI hat zwei neue „Open-Weight“-KI-Reasoning-Modelle veröffentlicht und sie auf der Entwicklerplattform Hugging Face zum kostenlosen Download bereitgestellt. Das Unternehmen beschreibt diese Modelle als „modernste“, wenn sie anhand mehrerer Benchmarks für vergleichbare offene Modelle bewertet werden.
Die Veröffentlichung umfasst zwei verschiedene Größen: das robustere gpt-oss-120b, das für den Betrieb auf einer einzelnen Nvidia-GPU konzipiert ist, und das leichtere gpt-oss-20b, das auf einem Consumer-Laptop mit 16 GB Arbeitsspeicher laufen kann. Dies ist OpenAIs erstes öffentlich veröffentlichtes „offenes“ Sprachmodell seit GPT-2, das vor mehr als fünf Jahren debütierte.
OpenAI gab an, dass diese neuen offenen Modelle in der Lage sind, komplexe Anfragen an die leistungsfähigeren, in der Cloud gehosteten KI-Modelle des Unternehmens zu senden. Dieser hybride Ansatz bedeutet, dass Entwickler, wenn ein offenes Modell eine bestimmte Aufgabe, wie die Bildverarbeitung, nicht ausführen kann, es mit einem der leistungsfähigeren, proprietären Modelle von OpenAI verbinden können.
Obwohl OpenAI in den Anfängen Open-Sourcing befürwortete, verfolgte das Unternehmen überwiegend eine proprietäre, quellgeschlossene Entwicklungsstrategie. Dieser Ansatz war maßgeblich am Aufbau eines substanziellen Geschäfts beteiligt, indem API-Zugang zu seinen KI-Modellen für Unternehmen und Entwickler verkauft wurde. CEO Sam Altman äußerte jedoch im Januar seine Überzeugung, dass OpenAI bezüglich des Open-Sourcing seiner Technologien „auf der falschen Seite der Geschichte“ gestanden habe.
Das Unternehmen sieht sich nun einem zunehmenden Wettbewerb durch chinesische KI-Labore gegenüber, darunter DeepSeek, Alibabas Qwen und Moonshot AI, die mehrere der weltweit leistungsfähigsten und am weitesten verbreiteten offenen Modelle entwickelt haben. Dieser Wandel vollzieht sich, während Metas Llama KI-Modelle, einst dominant im Open-AI-Bereich, im vergangenen Jahr Berichten zufolge ins Hintertreffen geraten sind. Darüber hinaus forderte die Trump-Administration im Juli US-KI-Entwickler dringend auf, mehr Technologie als Open Source bereitzustellen, um die globale KI-Einführung im Einklang mit amerikanischen Werten zu fördern.
Mit der Einführung von gpt-oss will OpenAI die Unterstützung sowohl von Entwicklern als auch von der Trump-Administration gewinnen, die beide die wachsende Bedeutung chinesischer KI-Labore im Open-Source-Bereich beobachtet haben. Sam Altman erklärte: „OpenAIs Mission ist es, sicherzustellen, dass AGI der gesamten Menschheit zugutekommt. Zu diesem Zweck freuen wir uns darauf, dass die Welt auf einem offenen KI-Stack aufbaut, der in den Vereinigten Staaten geschaffen wurde, auf demokratischen Werten basiert, für alle kostenlos verfügbar ist und weitreichenden Nutzen bringt.“
Modellleistung und Halluzination
OpenAI versuchte, seine neuen offenen Modelle als führend unter anderen Open-Weight-KI-Modellen zu positionieren und beanspruchte diesbezüglich Erfolg.
Auf Codeforces, einem Wettbewerbsprogrammiertest unter Verwendung von Tools, erreichte gpt-oss-120b eine Punktzahl von 2622, während gpt-oss-20b 2516 Punkte erzielte. Beide Modelle übertrafen DeepSeeks R1, lagen aber hinter OpenAIs o3- und o4-mini-Modellen.
Ähnlich erzielte gpt-oss-120b bei „Humanity’s Last Exam“, einem anspruchsvollen Test mit Crowdsourcing-Fragen aus verschiedenen Fächern (ebenfalls mit Tools), 19 % und gpt-oss-20b 17,3 %. Diese Ergebnisse deuten auf eine schlechtere Leistung im Vergleich zu o3 hin, aber auf eine überlegene Leistung gegenüber führenden offenen Modellen von DeepSeek und Qwen.
Bemerkenswert ist, dass OpenAIs neue offene Modelle im Vergleich zu ihren neuesten proprietären KI-Reasoning-Modellen, o3 und o4-mini, deutlich höhere Raten von „Halluzination“ aufweisen – d.h. die Generierung falscher oder unsinniger Informationen. OpenAI führt dies darauf zurück, dass kleinere Modelle weniger „Weltwissen“ besitzen als größere Frontier-Modelle, was zu einer erhöhten Halluzination führt. Bei PersonQA, OpenAIs internem Benchmark zur Messung der Wissensgenauigkeit über Personen, halluzinierte gpt-oss-120b bei 49 % der Fragen, und gpt-oss-20b bei 53 %. Diese Rate ist mehr als dreimal so hoch wie die von OpenAIs o1-Modell (16 %) und höher als die seines o4-mini-Modells (36 %).
Training und Lizenzierung
OpenAI erklärte, dass seine offenen Modelle mit ähnlichen Prozessen wie seine proprietären Modelle trainiert wurden. Jedes offene Modell integriert eine Mixture-of-Experts (MoE)-Architektur, um für jede gegebene Abfrage effizient weniger Parameter zu aktivieren. Zum Beispiel aktiviert der gpt-oss-120b, der insgesamt 117 Milliarden Parameter hat, nur 5,1 Milliarden Parameter pro Token.
Die Modelle wurden in ihrer Post-Trainingsphase auch einem hochrechnenden Reinforcement Learning (RL) unterzogen. Dieser Prozess, der große Cluster von Nvidia-GPUs in simulierten Umgebungen verwendet, lehrt KI-Modelle, richtige von falschen Antworten zu unterscheiden. Ähnlich wie OpenAIs o-Serien-Modelle verwenden die neuen offenen Modelle einen „Chain-of-Thought“-Prozess, der zusätzliche Zeit und Rechenressourcen für die Formulierung ihrer Antworten aufwendet. Dieses Post-Training hat es den offenen Modellen ermöglicht, bei der Steuerung von KI-Agenten hervorragende Leistungen zu erbringen, indem sie Tools wie die Websuche oder die Ausführung von Python-Code aufrufen können. OpenAI betonte jedoch, dass diese offenen Modelle nur Text verarbeiten und keine Bilder und Audio generieren können, wie einige andere Modelle des Unternehmens.
OpenAI veröffentlicht gpt-oss-120b und gpt-oss-20b unter der Apache 2.0 Lizenz, die weithin als eine der permissivsten gilt. Diese Lizenz erlaubt es Unternehmen, OpenAIs offene Modelle zu monetarisieren, ohne dass Zahlungen oder Genehmigungen des Unternehmens erforderlich sind. Im Gegensatz zu Angeboten von vollständig Open-Source-KI-Laboren wie AI2 wird OpenAI jedoch nicht die Trainingsdaten veröffentlichen, die zur Erstellung dieser Modelle verwendet wurden. Diese Entscheidung steht im Einklang mit mehreren aktiven Klagen gegen Anbieter von KI-Modellen, einschließlich OpenAI, die unangemessenes Training mit urheberrechtlich geschützten Werken alleging.
Sicherheitsaspekte
Die Veröffentlichung von OpenAIs offenen Modellen wurde in den letzten Monaten Berichten zufolge mehrfach verschoben, teilweise aufgrund von Sicherheitsbedenken. Über seine Standard-Sicherheitsprotokolle hinaus führte OpenAI Untersuchungen durch, ob böswillige Akteure gpt-oss-Modelle feinabstimmen könnten, um Cyberangriffe oder die Herstellung biologischer oder chemischer Waffen zu erleichtern.
Nach Bewertungen sowohl von OpenAI als auch von Drittgutachtern kam das Unternehmen zu dem Schluss, dass gpt-oss die biologischen Fähigkeiten geringfügig erhöhen könnte. Es wurden jedoch keine Beweise gefunden, dass diese offenen Modelle selbst nach dem Feinabstimmen einen „hohen Fähigkeitsschwellenwert“ für Gefahren in diesen Bereichen erreichen könnten.
Während OpenAIs neue Modelle unter den Open-Source-Angeboten an der Spitze zu stehen scheinen, erwarten Entwickler auch die Veröffentlichung von DeepSeek R2, seinem nächsten KI-Reasoning-Modell, und einem neuen offenen Modell von Metas Superintelligenz-Labor.