OpenAI Enthüllt Erste Open-Weight KI-Modelle Seit GPT-2

Aibusiness

OpenAI, ein Unternehmen, das oft mit seinen leistungsstarken, proprietären KI-Modellen in Verbindung gebracht wird, hat mit der Enthüllung seiner ersten Open-Weight-Modelle für künstliche Intelligenz seit der Veröffentlichung von GPT-2 im Jahr 2019 einen bedeutenden strategischen Wandel vollzogen. Dieser Schritt führt zwei neue Modelle ein, gpt-oss-120b und gpt-oss-20b, die darauf ausgelegt sind, fortschrittliche KI-Fähigkeiten durch lokale Bereitstellung und anspruchsvolle Denkaufgaben zu demokratisieren. Amazon wurde als früher Kunde bekannt gegeben und integriert diese Modelle in seine Cloud-Angebote.

Die neu veröffentlichten gpt-oss-Modelle werden unter der freizügigen Apache 2.0-Lizenz zur Verfügung gestellt, was OpenAIs Absicht signalisiert, eine breitere Innovation und Akzeptanz innerhalb der KI-Gemeinschaft zu fördern. Der gpt-oss-120b, der größere der beiden, zeigt eine Leistung, die der von OpenAIs proprietärem o4-mini-Modell bei wichtigen Reasoning-Benchmarks nahekommt, ist jedoch so optimiert, dass er effizient auf einer einzelnen 80-GB-GPU läuft. Sein kleineres Gegenstück, gpt-oss-20b, bietet Fähigkeiten, die mit OpenAIs o3-mini vergleichbar sind und kann auf Edge-Geräten mit nur 16 GB Arbeitsspeicher betrieben werden, was es ideal für die Bereitstellung auf Laptops und anderer Consumer-Hardware macht. Beide Modelle basieren auf einer Mixture-of-Experts (MoE) Transformer-Architektur, wobei gpt-oss-120b 5,1 Milliarden Parameter pro Token von insgesamt 117 Milliarden aktiviert und gpt-oss-20b 3,6 Milliarden Parameter pro Token von seinen insgesamt 21 Milliarden aktiviert. Sie unterstützen ein erweitertes Kontextfenster von bis zu 128.000 Tokens und zeichnen sich in einer Reihe von Anwendungen aus, darunter Codierung, Mathematik auf Wettbewerbsniveau, gesundheitsbezogene Abfragen und der Einsatz von Agenten-Tools, mit vollständigen Chain-of-Thought (CoT)-Reasoning- und Tool-Ausführungsfunktionen.

Diese Veröffentlichung bedeutet eine bemerkenswerte Änderung in OpenAIs Ansatz, der jahrelang geschlossene, API-gesteuerte Modelle priorisiert hatte. Die Entscheidung, Open-Weight-Modelle anzubieten, wird von dem Wunsch angetrieben, Barrieren für Entwickler, Forscher und Organisationen, insbesondere solche in Schwellenmärkten oder mit Ressourcenbeschränkungen, abzubauen. Durch die Bereitstellung von Modellen, die lokal auf der eigenen Infrastruktur eines Benutzers ausgeführt werden können, will OpenAI eine größere Kontrolle über Latenz, Kosten und Datenschutz gewähren und die Abhängigkeit von entfernten Cloud-APIs für sensible Operationen eliminieren. Obwohl es sich um „Open-Weight“-Modelle handelt, was bedeutet, dass die trainierten Parameter öffentlich für Feinabstimmung und lokale Ausführung zugänglich sind, handelt es sich nicht um „Open-Source“-Modelle im strengsten Sinne, da die zugrunde liegenden Trainingsdaten und der vollständige Quellcode nicht veröffentlicht werden, eine Unterscheidung, die OpenAI auf rechtliche und sicherheitsrelevante Überlegungen zurückführt.

Die gpt-oss-Modelle sind auf Plattformen wie Hugging Face und GitHub leicht zum Download verfügbar und unterstützen die Bereitstellung auf verschiedenen Betriebssystemen, darunter MacOS, Linux und Windows Subsystem for Linux (WSL) 2.0. Über direkte Downloads hinaus sind diese Modelle auch in wichtige Cloud-Plattformen integriert. Amazon Web Services (AWS) hat gpt-oss-120b und gpt-oss-20b über Amazon Bedrock und Amazon SageMaker JumpStart verfügbar gemacht, was das erste Mal ist, dass OpenAI-Modelle auf Bedrock gehostet werden. Ähnlich bietet Microsoft diese Modelle über Azure AI Foundry und Windows AI Foundry an, wodurch ihre Zugänglichkeit in verschiedenen Computerumgebungen weiter erweitert wird. Diese Multi-Plattform-Verfügbarkeit unterstreicht einen wachsenden Branchentrend hin zu einem offeneren und flexibleren KI-Ökosystem.

OpenAI hat betont, dass die Veröffentlichung dieser Open-Weight-Modelle umfangreichen Sicherheitsbewertungen folgte, einschließlich strenger interner Tests und unabhängiger Expertenprüfungen. Das Unternehmen implementierte fortschrittliche Post-Training-Techniken, die denen seiner proprietären Frontier-Modelle ähneln, um die gpt-oss-Modelle an seine Sicherheitsstandards anzupassen und ihre Reasoning- und Tool-Nutzungsfähigkeiten zu verbessern. Um potenzielle Risiken weiter anzugehen, hat OpenAI eine Red-Teaming-Herausforderung gestartet und einen Preis von 500.000 US-Dollar angeboten, um Sicherheitsprobleme innerhalb dieser neuen Open-Weight-Modelle zu identifizieren und zu mindern.

Diese strategische Neuausrichtung von OpenAI, die ihre leistungsstarken Reasoning-Modelle für die lokale Bereitstellung zugänglich macht, verspricht, die KI-Forschung und -Entwicklung in einem breiteren Anwendungsspektrum zu beschleunigen und Entwicklern eine beispiellose Kontrolle und Flexibilität zu bieten.