OpenAI Révèle Ses Premiers Modèles d'IA Open-Weight Après Cinq Ans
OpenAI a dévoilé ses premiers modèles d’IA à poids ouvert en plus de cinq ans, marquant un pivot stratégique significatif visant à élargir l’accès des développeurs et à influencer la politique mondiale en matière d’IA. Le lancement introduit deux puissants modèles de raisonnement, gpt-oss-120b et gpt-oss-20b, désormais disponibles publiquement sur Hugging Face sous la licence très permissive Apache 2.0. Cette démarche signifie le retour d’OpenAI à ses racines open source, s’éloignant de son récent focus sur les modèles propriétaires basés sur des API.
La décision de publier ces modèles à poids ouvert, ce qui signifie que leurs paramètres sous-jacents sont librement disponibles pour le téléchargement, la modification et le déploiement, souligne une évolution vers la démocratisation de la technologie de l’IA. Cela permet aux développeurs et aux organisations de personnaliser, d’affiner et d’exécuter ces modèles sur leur propre infrastructure, réduisant ainsi la dépendance aux API cloud distantes et améliorant la confidentialité des données. La licence Apache 2.0 est particulièrement notable, car elle autorise l’utilisation commerciale, la modification et la distribution sans restriction, y compris les concessions de brevets qui protègent les utilisateurs contre les revendications de contrefaçon. Cette licence permissive contraste avec certains autres modèles open source, qui peuvent inclure des restrictions sur l’utilisation commerciale ou l’échelle.
Le modèle gpt-oss-120b, avec ses 117 milliards de paramètres, est conçu pour des applications haute performance et atteint une quasi-parité avec le o4-mini d’OpenAI sur les benchmarks de raisonnement essentiels. De manière impressionnante, ce modèle plus grand peut fonctionner efficacement sur une seule GPU Nvidia de 80 Go. Le gpt-oss-20b, plus léger, doté de 21 milliards de paramètres, offre des performances comparables au o3-mini d’OpenAI et est optimisé pour le matériel grand public, capable de fonctionner sur des appareils avec seulement 16 Go de mémoire, ce qui le rend idéal pour les cas d’utilisation sur appareil et l’inférence locale. Cette accessibilité change la donne, levant les barrières pour les petites organisations, les marchés émergents et les développeurs individuels qui pourraient manquer du budget nécessaire pour une infrastructure cloud étendue.
Les deux modèles gpt-oss excellent dans les tâches de raisonnement, démontrent de solides capacités d’utilisation d’outils et prennent en charge l’appel de fonctions en quelques exemples (few-shot) et le raisonnement en chaîne de pensée (CoT). Ils sont compatibles avec l’API Responses d’OpenAI et conçus pour les workflows d’agents, offrant des efforts de raisonnement ajustables pour diverses tâches. Bien que les modèles soient très performants, OpenAI a mis l’accent sur la sécurité, en mettant en œuvre une formation et des évaluations complètes pour minimiser les risques, même en cas de réglage fin malveillant. Cependant, les résultats de la chaîne de pensée sont laissés non filtrés pour la transparence, ce qui peut entraîner des scores d’hallucination plus élevés, un compromis pour la monitorabilité.
Ce changement stratégique d’OpenAI intervient au milieu d’une concurrence croissante d’autres initiatives d’IA open source, telles que LLaMA de Meta et des modèles chinois comme DeepSeek, qui ont démontré la puissance et le potentiel collaboratif des approches à poids ouvert. Le PDG d’OpenAI, Sam Altman, avait précédemment reconnu être “du mauvais côté de l’histoire” concernant l’ouverture, et cette publication signale un engagement renouvelé à rendre l’IA largement accessible. L’entreprise vise à favoriser l’innovation par la collaboration ouverte, estimant qu’une base de développeurs plus large accélérera la recherche et conduira à un développement de l’IA plus sûr et plus transparent.
De plus, les modèles sont désormais disponibles sur les principales plateformes cloud comme Amazon Bedrock et Amazon SageMaker JumpStart, étendant leur portée à des millions de clients AWS. Microsoft intègre également des versions optimisées pour GPU de gpt-oss-20b dans les appareils Windows, améliorant encore les options de déploiement local. Cette disponibilité généralisée et la licence permissive sont destinées à stimuler une nouvelle vague d’innovation en IA, permettant aux constructeurs de créer et de déployer des solutions d’IA selon leurs propres termes, du cloud à la périphérie.