`gpt-oss` d'OpenAI Alimente l'IA Hybride sur Azure et Windows

Visualstudiomagazine

OpenAI a dévoilé ses nouveaux modèles open-weight gpt-oss, marquant une avancée significative vers la démocratisation de l’intelligence artificielle avancée et annonçant une nouvelle ère d’IA hybride. Microsoft intègre rapidement ces modèles dans ses plateformes Azure AI Foundry et Windows AI Foundry, offrant aux développeurs une flexibilité sans précédent pour exécuter, personnaliser et déployer des solutions d’IA depuis le vaste cloud jusqu’aux appareils des utilisateurs.

La série gpt-oss représente la première publication de modèle open-weight d’OpenAI depuis GPT-2, une décision stratégique annoncée le 5 août 2025. Contrairement aux modèles open-source traditionnels qui publient le code de formation complet et les données, les modèles open-weight rendent leurs paramètres entraînés publics sous une licence permissive Apache 2.0. Cette approche permet aux développeurs d’inspecter, de personnaliser et d’affiner les modèles tandis qu’OpenAI conserve le contrôle sur sa propriété intellectuelle fondamentale, trouvant un équilibre entre l’accessibilité et l’avantage propriétaire.

La famille gpt-oss se compose de deux modèles distincts adaptés à différents scénarios de déploiement : gpt-oss-120b et gpt-oss-20b. Le plus grand gpt-oss-120b dispose de 117 milliards de paramètres au total (avec 5,1 milliards de paramètres actifs par token) et offre des performances quasi équivalentes au modèle propriétaire o4-mini d’OpenAI sur les benchmarks de raisonnement essentiels. De manière cruciale, il est optimisé pour fonctionner efficacement sur un seul GPU d’entreprise de 80 Go, ce qui en fait une puissance pour les tâches complexes comme les mathématiques, le code et les questions-réponses spécifiques à un domaine dans les environnements cloud.

Pour le calcul en périphérie (edge computing) et l’inférence locale, OpenAI propose gpt-oss-20b, un modèle plus léger avec 21 milliards de paramètres au total (3,6 milliards actifs). Ce modèle obtient des résultats similaires à ceux du o3-mini d’OpenAI sur les benchmarks courants et peut fonctionner sur du matériel grand public avec aussi peu que 16 Go de mémoire, ce qui le rend idéal pour les applications sur appareil et l’itération locale rapide sans infrastructure coûteuse. Les deux modèles sont conçus pour un raisonnement robuste, prennent en charge l’utilisation d’outils, l’appel de fonctions à quelques exemples (few-shot function calling) et le raisonnement en chaîne de pensée (CoT), offrant des niveaux d’effort de raisonnement ajustables pour équilibrer la latence et les performances. Ce sont des modèles uniquement textuels avec une fenêtre de contexte substantielle de 128K.

L’intégration par Microsoft de ces modèles dans son écosystème AI Foundry souligne une vision stratégique où l’IA transcende le simple fait d’être une couche dans la pile pour devenir le fondement même de l’informatique. Azure AI Foundry sert de plateforme unifiée, basée sur le web, pour les opérations d’IA d’entreprise, permettant aux développeurs de concevoir, personnaliser et gérer des applications et des agents d’IA à l’échelle dans un environnement sécurisé et de qualité entreprise. Il offre un accès à un vaste catalogue de modèles, y compris gpt-oss-120b, et des outils pour l’affinage, la création d’applications d’IA générative, de copilotes personnalisés et d’agents sophistiqués.

Complétant cette capacité cloud, Windows AI Foundry, une évolution de Windows Copilot Runtime, est conçue pour faciliter le développement et le déploiement de modèles d’IA directement sur les ordinateurs personnels. Ce cadre prend en charge l’ensemble du cycle de vie du développeur d’IA, de la sélection et l’optimisation du modèle à l’affinage et au déploiement sur divers composants matériels, y compris les CPU, GPU et unités de traitement neural (NPU) que l’on trouve dans les PC Copilot+. L’inclusion de “Foundry Local” au sein de Windows AI Foundry offre aux développeurs un accès rapide à des modèles open-source pré-optimisés et prêts à l’emploi comme gpt-oss-20b pour des expériences d’IA fluides sur l’appareil.

Cette approche hybride du cloud à l’edge offre aux développeurs un contrôle et une flexibilité inégalés. En tirant parti de modèles open-weight comme gpt-oss, les développeurs bénéficient d’une transparence totale sur le comportement du modèle, permettant une personnalisation approfondie, un affinage avec des données propriétaires et un déploiement selon leurs propres termes. Cela se traduit par un meilleur contrôle sur la latence, les coûts et la confidentialité des données, favorisant l’innovation dans un éventail plus large de cas d’utilisation, des déploiements cloud sécurisés et haute performance aux tâches d’agent efficaces et en temps réel sur les appareils edge, même dans des environnements à bande passante limitée.

La sortie de gpt-oss et son intégration profonde avec les AI Foundries de Microsoft signalent un moment charnière dans le paysage de l’IA. Elle intensifie la concurrence avec d’autres fournisseurs de modèles open-weight comme Meta, Mistral AI et DeepSeek en Chine, tout en élargissant le marché adressable pour l’IA avancée. En fournissant des modèles accessibles, personnalisables et performants à la fois dans le cloud et à l’edge, OpenAI et Microsoft ne se contentent pas de démocratiser l’IA ; ils redéfinissent la manière dont les applications intelligentes sont construites, déployées et expérimentées à l’échelle mondiale.