GPT-5 plus intelligent : OpenAI corrige les problèmes de sélecteur de modèle
OpenAI s’attaque activement aux défis de déploiement initiaux de son dernier grand modèle linguistique, GPT-5, dans le but d’apporter des améliorations immédiates à la capacité, à la qualité et à l’interface utilisateur du modèle. Le PDG de l’entreprise, Sam Altman, a récemment confirmé via X que les abonnés ChatGPT Plus verront bientôt leurs limites de messages GPT-5 doubler une fois le déploiement en cours terminé. Cette initiative s’inscrit dans un effort plus large visant à affiner l’expérience utilisateur, tout en permettant aux utilisateurs Plus de continuer à accéder à l’ancien modèle GPT-4o, OpenAI surveillant son utilisation pour éclairer les décisions de disponibilité futures.
Actuellement, les utilisateurs de ChatGPT Plus sont limités à 100 messages toutes les trois heures, le système basculant automatiquement vers un modèle plus petit si cette limite est atteinte. La variante spécialisée GPT-5-Thinking, conçue pour des tâches plus complexes, a sa propre limite hebdomadaire de 200 messages, bien que le passage entre le GPT-5 standard et GPT-5-Thinking ne contribue pas à ce total hebdomadaire. L’annonce d’Altman suggère que les utilisateurs devraient percevoir une amélioration immédiate des performances, le GPT-5 devant “paraître plus intelligent à partir d’aujourd’hui”. Il a attribué les incohérences antérieures, qui faisaient occasionnellement paraître le modèle “beaucoup plus bête”, à des problèmes initiaux avec le sélecteur automatique de modèle principal, le système responsable de la sélection de la variante GPT-5 appropriée pour chaque invite utilisateur.
Le déploiement complet pour tous les utilisateurs s’est avéré plus complexe et plus long que ce qu’OpenAI avait initialement anticipé. Altman l’a caractérisé comme un “changement massif à grande échelle”, soulignant que le trafic API avait approximativement doublé au cours des 24 heures précédentes. Bien que certaines frictions opérationnelles fussent attendues étant donné la mise en œuvre simultanée de nombreuses modifications, Altman a concédé que la phase de lancement était “un peu plus mouvementée” que ce que l’entreprise avait espéré.
Au-delà des corrections immédiates, OpenAI affine également sa stratégie sous-jacente de routage de modèles, qui détermine comment les invites sont attribuées à des modèles spécifiques. L’objectif est d’assurer une correspondance plus fiable entre la demande de l’utilisateur et le modèle le mieux adapté pour la traiter. Altman a également indiqué des plans futurs pour améliorer la transparence, en rendant plus clair pour les utilisateurs quel modèle est actuellement actif. En outre, les utilisateurs pourraient éventuellement obtenir la capacité d’activer manuellement le mode “Thinking” directement via l’interface, bien qu’aucun calendrier pour ces fonctionnalités n’ait été fourni.
Ces ajustements stratégiques signalent un potentiel éloignement de l’accent mis précédemment par OpenAI sur le routage de modèles entièrement automatique. Bien que le routage automatisé simplifie l’expérience pour les nouveaux utilisateurs qui préfèrent ne pas sélectionner manuellement les modèles, il peut par inadvertance conduire à des réponses moins fiables ou au déploiement d’un modèle inadapté à une tâche donnée, ajoutant une couche d’imprévisibilité aux sorties déjà complexes des grands modèles linguistiques. Pour les utilisateurs qui préfèrent un plus grand contrôle, OpenAI a maintenu une option pour activer l’accès aux modèles “hérités” via les paramètres de ChatGPT, qui apparaissent ensuite sous “Autres modèles”. Cependant, les variantes plus avancées GPT-5 “Thinking” et “Pro” restent exclusivement accessibles via un compte Pro.