OpenAI lance des modèles GPT-OSS sous licence Apache, défiant ses rivaux
OpenAI a dévoilé ses premiers modèles de langage à poids ouvert depuis GPT-2, marquant un virage stratégique pivot visant à accélérer l’adoption de ses technologies d’IA par les entreprises. La publication de gpt-oss-120b et gpt-oss-20b sous la licence permissive Apache 2.0 signale une nouvelle ère pour OpenAI, mettant l’accent sur le déploiement flexible, la réduction des coûts opérationnels et une accessibilité accrue pour les entreprises.
Ces nouveaux modèles représentent une démarche calculée par OpenAI pour équilibrer l’accessibilité avec son avantage propriétaire. Bien que les poids des modèles soient ouvertement disponibles pour que les organisations puissent les exécuter et les personnaliser localement, OpenAI conserve le contrôle sur les données d’entraînement originales et les mécanismes de routage. Cette approche “semi-open source” vise à attirer les développeurs et les entreprises sans renoncer entièrement à la propriété intellectuelle essentielle.
Les modèles gpt-oss-120b et gpt-oss-20b sont conçus pour l’efficacité et la performance, même sur du matériel grand public. Le plus grand gpt-oss-120b atteindrait une quasi-parité avec le o4-mini d’OpenAI sur les benchmarks de raisonnement tout en ne nécessitant qu’un seul GPU de 80 Go. Le gpt-oss-20b, plus compact, égale les performances du o3-mini et peut fonctionner sur des appareils de périphérie avec aussi peu que 16 Go de mémoire, rendant les capacités d’IA avancées plus démocratisées. Les deux modèles prennent en charge de vastes fenêtres de contexte de 128 000 tokens et sont nativement quantifiés au format MXFP4 pour un déploiement optimisé.
Une clé de leur efficacité est l’architecture Mixture-of-Experts (MoE), qui optimise les demandes computationnelles en n’activant qu’un sous-ensemble de paramètres pour une entrée donnée. Par exemple, gpt-oss-120b active 5,1 milliards de paramètres sur ses 117 milliards au total, tandis que gpt-oss-20b active 3,6 milliards de sa base de 21 milliards. Cette activation sélective réduit considérablement les coûts de calcul pendant l’inférence, rendant possible la construction de modèles puissants qui sont également économes en ressources.
La licence Apache 2.0 est un élément essentiel de cette publication, permettant l’utilisation commerciale, la modification et la distribution illimitées des modèles. Cette licence permissive offre également des concessions de brevets, protégeant les utilisateurs contre les réclamations pour violation de brevets, ce qui est très précieux dans le paysage de l’IA en évolution rapide. Cette approche de licence devrait accélérer l’adoption des modèles OpenAI pour la recherche et les applications commerciales, comme l’a noté Neil Shah, vice-président de la recherche et partenaire chez Counterpoint Research.
Pour les équipes informatiques d’entreprise, ce virage stratégique se traduit par des exigences de ressources plus prévisibles et des économies de coûts potentiellement significatives par rapport aux déploiements de modèles propriétaires traditionnels. Bien que l’auto-hébergement nécessite des investissements initiaux dans l’infrastructure et des coûts opérationnels continus, il élimine les frais d’API par token qui peuvent rapidement s’accumuler avec une utilisation à grand volume. Les experts de l’industrie suggèrent que le coût total de possession (TCO) favorisera les entreprises ayant des besoins à grand volume ou critiques, où les économies de l’auto-hébergement l’emporteront finalement sur les dépenses initiales et opérationnelles. Les premiers partenaires d’entreprise, y compris AI Sweden, Orange et Snowflake, testent déjà des applications réelles, de l’hébergement sur site pour une sécurité accrue des données à l’ajustement fin sur des ensembles de données spécialisés.
Cette initiative a également des implications significatives pour la relation d’OpenAI avec Microsoft, son principal investisseur et partenaire cloud. En proposant des modèles à poids ouvert, OpenAI se désolidarise intelligemment d’une dépendance exclusive à Microsoft Azure, permettant aux développeurs d’héberger ces modèles sur des clouds concurrents comme AWS ou Google, ou même sur le cloud OpenAI-Oracle. Cette flexibilité stratégique renforce le pouvoir de négociation des entreprises face aux autres fournisseurs d’IA et aux modèles d’IA en tant que service. Malgré cela, Microsoft intègre toujours des versions de gpt-oss-20b optimisées pour GPU dans les appareils Windows via ONNX Runtime, prenant en charge l’inférence locale via Foundry Local et l’AI Toolkit pour VS Code.
OpenAI affirme que les modèles ont subi une formation et des évaluations de sécurité complètes, y compris le test d’une version ajustée de manière contradictoire dans le cadre de son Cadre de Préparation, avec des méthodologies examinées par des experts externes. Cela répond aux préoccupations courantes des entreprises concernant la sécurité et le déploiement responsable de l’IA open source. Les modèles ont démontré des performances compétitives sur les benchmarks, avec gpt-oss-120b atteignant 79,8% de Pass@1 sur AIME 2024 et 97,3% sur MATH-500, ainsi que de solides capacités de codage et d’utilisation d’outils, cruciales pour l’automatisation des entreprises.
Ce changement reconnaît la demande croissante de flexibilité de déploiement dans l’adoption de l’IA d’entreprise, en particulier pour les organisations des industries réglementées qui privilégient la souveraineté des données et celles qui cherchent à éviter le verrouillage des fournisseurs. Bien que les entreprises doivent gérer la complexité opérationnelle, OpenAI collabore avec des fournisseurs de matériel tels que Nvidia, AMD, Cerebras et Groq pour garantir des performances optimisées sur divers systèmes. En fin de compte, la licence Apache 2.0 supprime les barrières traditionnelles à la personnalisation, permettant aux organisations de développer des applications d’IA propriétaires sans frais de licence récurrents, ce qui en fait une victoire significative pour les entreprises dans le paysage de l’IA en évolution.