GPT-5 est lancé, OpenAI vise 500 milliards de dollars et des modèles ouverts

Aiwire

La semaine dernière a marqué un moment pivot pour OpenAI, se déroulant avec un trio d’annonces significatives qui soulignent la poursuite agressive de l’intelligence artificielle générale (AGI) par l’entreprise, sa valorisation boursière en pleine croissance et un engagement renouvelé envers les initiatives open source. La semaine a débuté avec la sortie de gpt-oss, une nouvelle famille de modèles à poids ouverts, suivie rapidement par des rapports selon lesquels l’entreprise était en discussions avec des investisseurs pour une potentielle vente d’actions qui pourrait la valoriser à un montant étonnant de 500 milliards de dollars. Pour couronner cette période riche en événements, OpenAI a finalement dévoilé GPT-5, son modèle phare très attendu, signalant un bond majeur dans la course aux armements des grands modèles linguistiques.

GPT-5, la première mise à jour majeure depuis le lancement de GPT-4 en mars 2023, a été présentée par le PDG Sam Altman lors d’un lancement en direct, qui l’a salué comme “une étape significative sur notre chemin vers l’AGI”. Le nouveau modèle est désormais disponible pour les utilisateurs gratuits, Plus et Team de ChatGPT, avec des déploiements pour les entreprises et l’éducation prévus pour la semaine suivante. Les développeurs auront également accès à GPT-5 via trois niveaux d’API distincts : GPT-5, GPT-5 Mini et GPT-5 Nano. Un changement architectural clé dans GPT-5 implique une refonte de la logique de routage de ChatGPT. Auparavant, le système dirigeait les requêtes de routine vers des modèles plus rapides et les tâches complexes vers des variantes de raisonnement plus lentes et plus délibérées. Cette “fourche” a été éliminée avec GPT-5. Comme l’a expliqué Mark Chen, directeur de la recherche chez OpenAI, le modèle utilise désormais un contrôleur interne pour déterminer dynamiquement la durée optimale de la “pensée”, dans le but de fournir des réponses précises sans latence inutile pour les requêtes plus simples.

Les résultats des benchmarks présentés lors du lancement ont démontré les capacités impressionnantes de GPT-5. Le modèle a obtenu un score de 74,9 % sur SWE-Bench, une mesure de sa compétence à corriger des bugs dans des projets de codage Python, et un score de 88 % sur le test de codage Aider Polyglot. Il a également établi un nouveau record sur la suite de raisonnement visuel multimodal MMMU et a surpassé GPT-4o d’une marge non divulguée lors de l’examen de mathématiques de lycée AIME 2025. Le personnel d’OpenAI a reconnu que les évaluations formelles ne peuvent pas englober tous les scénarios du monde réel, mais a souligné que ces scores plus élevés s’alignent sur les gains internes observés en matière de fiabilité. Un accent significatif pendant l’entraînement de GPT-5 a été mis sur la réduction des erreurs factuelles et des comportements trompeurs. Sachi Desai, responsable de la sécurité, a noté que le modèle présente moins d’inexactitudes factuelles lors des tests internes et utilise une méthode de “complétion sûre” plutôt qu’une règle rigide de conformité ou de refus. Abordant la tromperie, Desai a souligné que GPT-5 est “significativement moins trompeur” que ses prédécesseurs, en particulier dans les tâches ambiguës ou sous-spécifiées. Pour les requêtes potentiellement dangereuses, telles que les instructions pour les feux d’artifice pyrogènes, le modèle offre désormais des conseils partiels, dirige les utilisateurs vers des manuels de sécurité et explique de manière transparente tout refus, dans le but de fournir un contexte utile sans faciliter les dommages.

Au-delà des améliorations du modèle de base, OpenAI déploie des mises à jour de produits et d’API basées sur GPT-5. Celles-ci incluent un mode vocal plus naturel avec un contexte vidéo en direct pour les utilisateurs gratuits, des options de personnalisation améliorées et des capacités de mémoire pouvant se connecter à des services comme Gmail et Google Agenda. Un nouveau mode d’étude offre un apprentissage étape par étape. Pour les développeurs, GPT-5 introduit des appels d’outils personnalisés qui acceptent du texte brut, des préambules facultatifs avant l’utilisation des outils, un contrôle de la verbosité et un paramètre de raisonnement minimal pour privilégier la vitesse sur la profondeur. L’entreprise affirme que GPT-5 atteint un remarquable 97 % sur le benchmark Tau-Squared pour les tâches multi-outils, une augmentation substantielle par rapport aux 49 % d’il y a seulement deux mois. Bien que le lancement ait été confirmé pour divers niveaux d’utilisateurs, le déploiement de GPT-5 est progressif pour assurer la stabilité, ce qui signifie que certains utilisateurs peuvent connaître une disponibilité retardée.

Parallèlement au lancement de GPT-5, des rapports ont fait surface concernant la trajectoire financière d’OpenAI. Bloomberg a indiqué que l’entreprise est en discussions préliminaires pour une vente secondaire d’actions d’employés, ce qui pourrait valoriser OpenAI à environ 500 milliards de dollars. Les investisseurs existants, y compris Thrive Capital, exploreraient leur participation à ces achats. Si cet accord est finalisé, il élèverait considérablement la valorisation théorique de l’entreprise par rapport à ses 300 milliards de dollars précédents, établis lors d’une levée de fonds de 40 milliards de dollars menée par SoftBank. Le rapport a également noté qu’OpenAI a récemment obtenu 8,3 milliards de dollars supplémentaires en tant que deuxième tranche de ce financement sursouscrit. Une telle vente secondaire fournirait une liquidité cruciale aux employés et pourrait aider à la rétention des talents face à la concurrence intense de rivaux comme Meta et Anthropic. De plus, Bloomberg a rapporté qu’OpenAI et Microsoft renégocient leur relation complexe, y compris la participation au capital de Microsoft et l’accès à la technologie fondamentale d’OpenAI, avant l’expiration de leur accord actuel en 2030. Ce partenariat a été caractérisé par une interaction complexe de rivalité, d’alignement stratégique et d’interdépendance. Le modèle de profit hybride unique d’OpenAI, comprenant une société mère à but non lucratif supervisant une société d’exploitation à but lucratif, continue d’évoluer, avec des discussions en cours sur les changements structurels, y compris la possibilité que la branche d’exploitation devienne une société d’intérêt public, tout en maintenant la supervision à but non lucratif. Ce débat stratégique se déroule sur fond de croissance rapide du nombre d’utilisateurs, ChatGPT devant atteindre 700 millions d’utilisateurs actifs hebdomadaires cette semaine, contre 500 millions en mars.

Dans une démarche qui s’aligne avec son nom fondateur, OpenAI a également lancé gpt-oss, une nouvelle famille de modèles à poids ouverts. Disponibles en versions de 20 milliards et 120 milliards de paramètres sur Hugging Face et GitHub sous la licence Apache 2.0, ces modèles représentent une étape significative vers une accessibilité plus large. OpenAI a déclaré que les modèles gpt-oss “surpassent les modèles ouverts de taille similaire sur les tâches de raisonnement, démontrent de solides capacités d’utilisation d’outils et sont optimisés pour un déploiement efficace sur du matériel grand public”. Ils ont été entraînés en utilisant une combinaison d’apprentissage par renforcement et de techniques informées par les modèles internes les plus avancés d’OpenAI. Les deux nouveaux modèles utilisent une architecture Transformer avec une approche de mélange d’experts (MoE) pour réduire le nombre de paramètres actifs requis pour le traitement des entrées, améliorant ainsi l’efficacité. Le modèle gpt-oss-120b, nécessitant un GPU de 80 Go, est conçu pour les centres de données et les ordinateurs de bureau haut de gamme, atteignant une quasi-parité avec le o4-mini d’OpenAI sur les benchmarks de raisonnement de base. Le plus petit gpt-oss-20b, ne nécessitant que 16 Go de mémoire, peut fonctionner sur la plupart des ordinateurs de bureau et portables grand public, ce qui le rend adapté aux cas d’utilisation sur appareil et à l’inférence locale, offrant des résultats comparables au o3-mini d’OpenAI. La nature à poids ouverts de gpt-oss offre aux chercheurs une flexibilité sans précédent, leur permettant d’exécuter des modèles sur leur propre matériel, de mener des expériences reproductibles, d’inspecter les fonctionnements internes, d’affiner les modèles sur des données spécifiques au domaine et de comparer les résultats avec d’autres laboratoires tout en garantissant la confidentialité des données et en réduisant les coûts. Cette transparence, y compris la capacité d’exposer la chaîne de pensée complète du modèle et d’ajuster la profondeur du raisonnement, vise à accélérer la recherche reproductible dans des domaines tels que la conception moléculaire et la modélisation climatique. OpenAI considère la publication de gpt-oss comme une étape vitale vers un “écosystème de modèles ouverts sain”, complétant ses modèles hébergés en offrant aux développeurs plus d’options pour la recherche et le développement, visant finalement à rendre l’IA “largement accessible et bénéfique pour tous”.