OpenAI lance des modèles open-weight : un défi pour le leadership chinois en IA
Dans un pivot stratégique significatif, OpenAI a dévoilé ses premiers modèles de langage à poids ouvert depuis des années, défiant directement le leadership croissant de la Chine dans le domaine de l’intelligence artificielle open source. Lancés le 5 août 2025, les nouveaux modèles, nommés GPT-OSS-120B et GPT-OSS-20B, signalent un départ notable de la philosophie de développement majoritairement fermée d’OpenAI, un changement qui aurait été influencé par les avancées rapides observées dans l’IA open source chinoise.
L’introduction de GPT-OSS-120B et de son homologue plus léger, GPT-OSS-20B, marque le retour d’OpenAI à une approche plus ouverte, un mouvement inédit depuis que GPT-2 a été rendu disponible en 2019. Ces modèles sont conçus pour une performance robuste en conditions réelles à faible coût, disponibles sous la licence permissive Apache 2.0, qui autorise l’utilisation commerciale et la modification. OpenAI met l’accent sur leurs solides capacités de raisonnement, leur support pour l’utilisation d’outils et leurs sorties de chaîne de pensée, les rendant adaptés à des tâches complexes comme les flux de travail d’agents, le codage, l’analyse scientifique et la résolution de problèmes mathématiques. De manière impressionnante, le modèle GPT-OSS-120B atteindrait une quasi-parité avec le o4-mini propriétaire d’OpenAI sur les benchmarks de raisonnement clés, tandis que le GPT-OSS-20B offre des performances comparables à o3-mini, capable de fonctionner efficacement sur du matériel grand public avec aussi peu que 16 Go de mémoire.
Ce pivot d’OpenAI est largement perçu comme une réponse directe à l’influence croissante des entreprises chinoises dans le paysage de l’IA open source. Au cours de la dernière année, des entreprises chinoises comme DeepSeek et Alibaba ont réalisé des avancées substantielles, avec des modèles tels que R1 de DeepSeek et la série Qwen d’Alibaba atteignant les meilleurs classements sur les plateformes de benchmarking mondiales. Ces modèles chinois, également largement open source et gratuits, ont suscité une adoption significative par les développeurs, remettant en question la notion de longue date de la domination américaine en matière d’innovation en IA. Le succès de la Chine dans ce domaine n’est pas accidentel, mais fait partie d’une stratégie nationale plus large, favorisant un écosystème d’IA domestique et visant à façonner la future gouvernance mondiale de l’IA.
Alors que les modèles chinois affichent souvent un nombre total de paramètres plus élevé, les nouvelles versions d’OpenAI tirent parti de l’architecture Mixture-of-Experts (MoE) pour l’efficacité, activant moins de paramètres par jeton pour une inférence plus rapide. Ce raffinement architectural permet aux modèles d’OpenAI de fournir des performances compétitives avec une empreinte active plus petite. Les benchmarks révèlent une image nuancée : les modèles GPT-OSS d’OpenAI excellent dans les tâches de raisonnement et mathématiques, tandis que leurs homologues chinois ont souvent des avantages dans le traitement multilingue et les applications d’agents.
La sortie des modèles GPT-OSS signifie un tournant crucial dans la course mondiale à l’IA, repoussant les limites de ce qui est disponible pour les développeurs du monde entier. Avec ces modèles téléchargeables gratuitement depuis des plateformes comme Hugging Face et intégrés dans les principaux services cloud comme AWS et Databricks, OpenAI démocratise l’accès à de puissants outils d’IA, intensifiant la concurrence et favorisant un écosystème mondial d’IA plus collaboratif, mais farouchement contesté. Ce recalibrage stratégique par OpenAI, suite à l’admission antérieure du PDG Sam Altman selon laquelle l’entreprise avait été “du mauvais côté de l’histoire” concernant l’open-sourcing, souligne la reconnaissance croissante que les modèles ouverts sont vitaux pour accélérer la recherche, favoriser l’innovation et assurer une plus large accessibilité dans le futur du développement de l’IA.