Altman répond aux critiques de GPT-5 : contrôle utilisateur promis

Decoder

Le récent déploiement de GPT-5 par OpenAI a été accueilli de manière mitigée, incitant le PDG Sam Altman à répondre aux préoccupations des utilisateurs et à exposer les plans immédiats et futurs de l’entreprise. Malgré l’affirmation d’Altman selon laquelle GPT-5 est « meilleur à bien des égards », une partie significative de la base d’utilisateurs reste divisée, beaucoup exprimant une préférence pour le comportement du modèle GPT-4o précédent. Reconnaissant ce feedback inattendu, OpenAI a rétabli l’accès à GPT-4o, admettant avoir mal jugé la demande initiale pour son prédécesseur.

Pour l’avenir, Altman a indiqué qu’OpenAI a l’intention de donner aux utilisateurs un plus grand contrôle sur le comportement de ses modèles, reconnaissant qu’aucune configuration unique ne conviendra parfaitement à tout le monde. La priorité immédiate consiste à stabiliser le déploiement en cours et à améliorer les performances du système. Après ces corrections à court terme, l’entreprise vise à rendre le modèle plus « chaleureux » et plus engageant, avec des outils de personnalisation complets prévus pour une version ultérieure.

Le déploiement n’a pas été sans ses défis techniques. OpenAI a confirmé que GPT-5 est désormais entièrement déployé sur tous les niveaux d’utilisateurs, y compris les comptes Plus, Pro, Team et Free. Cependant, le lancement initial a rencontré des problèmes significatifs, notamment avec un commutateur de modèle automatique conçu pour sélectionner la variante GPT-5 optimale pour chaque invite. Ce système, a expliqué Altman via X, a fait que le modèle a semblé « beaucoup plus bête » par périodes, entraînant la frustration des utilisateurs. L’entreprise affine activement cette stratégie de routage, visant des correspondances plus fiables entre les tâches et les modèles.

Pour atténuer les préoccupations immédiates et gérer la demande croissante — le trafic API aurait doublé en 24 heures après le lancement — OpenAI a doublé les limites d’utilisation pour les abonnés Plus et Team pendant le week-end. De plus, à partir de la semaine prochaine, des mini-versions de GPT-5 et GPT-5 Thinking s’activeront automatiquement pour les utilisateurs qui atteignent leurs limites de messages, restant actives jusqu’à ce que les limites soient réinitialisées. GPT-5 Thinking et GPT-5 Pro sont désormais directement sélectionnables dans l’interface principale du modèle. Altman a également mis en garde contre une « crise majeure de capacité » imminente attendue la semaine prochaine, assurant aux utilisateurs qu’OpenAI optimise son infrastructure et sera transparent sur tout compromis nécessaire.

Ces ajustements signalent un changement par rapport à la tendance antérieure d’OpenAI vers le routage de modèle entièrement automatisé. Bien que l’automatisation simplifie l’expérience pour les nouveaux utilisateurs, elle peut entraîner des réponses moins fiables ou le déploiement d’un modèle inapproprié, ajoutant à l’imprévisibilité inhérente des sorties des grands modèles linguistiques. En réponse, OpenAI prévoit de rendre plus clair pour les utilisateurs le modèle actif et d’introduire une option pour déclencher manuellement le mode « Thinking » via l’interface, bien qu’un calendrier pour ces fonctionnalités n’ait pas encore été fourni. Pour ceux qui souhaitent toujours utiliser les anciens modèles ChatGPT, l’accès aux versions « héritées », y compris GPT-4o, peut être activé via les paramètres de la plateforme.

L’évolution continue de GPT-5 reflète l’adaptation en temps réel d’OpenAI aux retours des utilisateurs et aux réalités complexes du déploiement de l’IA avancée à grande échelle, s’efforçant d’offrir une expérience utilisateur plus stable, personnalisable et, au final, plus intelligente.