OpenAI : Les modèles GPT-OSS à poids ouverts marquent un tournant stratégique

Datanami

Alors même que la poussière retombe après le lancement ambitieux de GPT-5 par OpenAI, une autre annonce significative de l’entreprise cette semaine attire une attention considérable : la sortie de deux nouveaux modèles à poids ouverts, gpt-oss-120b et gpt-oss-20b. Cette initiative marque un changement notable pour OpenAI, qui, au cours des six dernières années, s’est principalement concentré sur le développement de modèles propriétaires. Des partenaires comme Databricks, Microsoft et AWS accueillent avec enthousiasme ce qu’ils considèrent comme le retour d’OpenAI à une approche plus ouverte dans l’écosystème de l’IA.

Ces nouveaux modèles linguistiques, gpt-oss-120b et gpt-oss-20b, comportent respectivement environ 120 milliards et 20 milliards de paramètres. Bien que ces chiffres soient substantiels, ils positionnent les modèles comme relativement compacts par rapport aux plus grands modèles à « mille milliards de paramètres » qui dominent actuellement le marché. Les deux modèles gpt-oss sont conçus comme des moteurs de raisonnement, exploitant une architecture de « mélange d’experts » (MoE), ce qui leur permet de traiter l’information plus efficacement. Notamment, le plus grand gpt-oss-120b peut fonctionner efficacement sur un GPU standard de centre de données, tandis que son petit frère, gpt-oss-20b, est capable de fonctionner sur un ordinateur de bureau typique avec seulement 16 Go de mémoire, ce qui le rend adapté aux appareils périphériques.

OpenAI affirme que le modèle gpt-oss-120b atteint une « quasi-parité » avec son modèle o4-mini établi sur les benchmarks de raisonnement de base, tout en fonctionnant efficacement sur un seul GPU de 80 Go. L’entreprise souligne en outre les performances comparables du gpt-oss-20b à celles de l’o3-mini d’OpenAI sur les benchmarks courants, soulignant son adéquation pour les cas d’utilisation sur appareil, l’inférence locale ou le développement rapide sans nécessiter d’infrastructure coûteuse. Cloudflare, un partenaire de lancement d’OpenAI, souligne que ces modèles sont nativement optimisés pour la quantification FP4, une technique qui réduit significativement leur empreinte mémoire GPU par rapport à un modèle de 120 milliards de paramètres en précision FP16. Ceci, combiné à l’architecture MoE, permet aux nouveaux modèles de fonctionner plus rapidement et plus efficacement que les modèles denses plus traditionnels de taille similaire.

Les modèles gpt-oss offrent une fenêtre de contexte de 128K et proposent des niveaux de raisonnement ajustables — faible, moyen ou élevé. Ils sont actuellement uniquement en anglais et conçus exclusivement pour les applications textuelles, ce qui les distingue des modèles multimodaux à poids ouverts comme Llama de Meta. Cependant, leur distribution sous une licence Apache 2.0 en tant que modèles à poids ouverts signifie que les clients bénéficient d’une flexibilité sans précédent : ils peuvent déployer et exécuter ces modèles où ils le souhaitent, et surtout, les affiner avec leurs propres données pour atteindre des performances supérieures adaptées à des besoins spécifiques.

Databricks, un partenaire de lancement clé, a déjà rendu gpt-oss-120b et gpt-oss-20b disponibles sur sa place de marché d’IA. Hanlin Tang, CTO des réseaux neuronaux chez Databricks, a exprimé son enthousiasme pour le pivot d’OpenAI, déclarant : « Nous avons adopté l’open source et les modèles ouverts depuis très longtemps, des modèles Llama de Meta à certains de nos propres modèles par le passé, et c’est formidable de voir OpenAI rejoindre en quelque sorte le monde des modèles ouverts. » Tang a souligné la transparence accrue et le potentiel de personnalisation profond qu’offre un accès complet aux poids d’un modèle. Bien que les premiers tests soient en cours, Tang a noté que les premiers signes sont « plutôt prometteurs », l’architecture MoE les rendant particulièrement bien adaptés aux applications à faible latence telles que les agents IA, les chatbots et les copilotes — actuellement certains des types d’applications IA les plus populaires. Bien que textuels uniquement, Tang anticipe leurs solides performances dans les charges de travail par lots comme la synthèse de texte.

Microsoft a également exprimé un fort soutien à l’adoption par OpenAI des modèles à poids ouverts, déclarant que « les modèles ouverts sont passés des marges au courant dominant ». L’entreprise a souligné les avantages pour les développeurs, expliquant que les poids ouverts permettent aux équipes d’affiner rapidement les modèles en utilisant des méthodes efficaces comme LoRA, QLoRA et PEFT, d’intégrer des données propriétaires et de déployer de nouveaux points de contrôle en heures plutôt qu’en semaines. Microsoft a en outre mis en évidence la capacité à distiller, quantifier ou réduire la longueur de contexte des modèles gpt-oss, à appliquer une « sparsité structurée » pour des exigences de mémoire strictes sur les GPU périphériques ou les ordinateurs portables haut de gamme, et à injecter des « adaptateurs de domaine » pour des audits de sécurité plus faciles. En substance, Microsoft considère ces modèles ouverts non pas seulement comme des alternatives équivalentes en fonctionnalités, mais comme des « substrats programmables » — des outils fondamentaux qui peuvent être profondément personnalisés.

AWS soutient également l’initiative d’OpenAI, Atul Deo, directeur de produit chez AWS, déclarant que « les modèles à poids ouverts sont un domaine d’innovation important dans le développement futur de la technologie d’IA générative, c’est pourquoi nous avons investi pour faire d’AWS le meilleur endroit pour les exécuter — y compris ceux lancés aujourd’hui par OpenAI ».

La tendance plus large parmi les adopteurs d’IA est une approche stratégique de mix-and-match. Alors que les grands modèles linguistiques propriétaires comme GPT-5 excellent en généralisation grâce à leurs vastes données d’entraînement, ils s’accompagnent souvent de coûts plus élevés et manquent de flexibilité pour une personnalisation approfondie. Les modèles à poids ouverts plus petits, à l’inverse, pourraient ne pas généraliser aussi largement, mais leur ouverture permet un affinage, une flexibilité de déploiement (offrant des avantages en matière de confidentialité) et, généralement, une opération plus rentable. Le choix, comme l’a expliqué Hanlin Tang, se résume à adapter le bon modèle d’IA au cas d’utilisation spécifique du client. Les entreprises font de plus en plus de choix diversifiés, équilibrant la recherche de « super haute qualité » des modèles propriétaires avec la rentabilité et la personnalisation profonde offertes par les alternatives à poids ouverts.