OpenAI fait marche arrière sur GPT-5 : retour du choix et personnalisation des modèles
OpenAI a récemment traversé une période de retours utilisateurs intenses, initiant une correction de cap significative suite au déploiement de son dernier modèle phare, GPT-5. La stratégie initiale pour GPT-5 visait une expérience d’intelligence artificielle unifiée, où un modèle unique et avancé acheminerait intelligemment les requêtes des utilisateurs vers le backend d’IA le plus approprié, simplifiant idéalement les interactions en éliminant le besoin de sélection manuelle du modèle. Cependant, cette vision a rapidement rencontré la résistance d’une base d’utilisateurs habituée à un plus grand contrôle.
Le lancement de GPT-5 a déclenché des protestations généralisées des utilisateurs, concernant notamment la suppression des options permettant de sélectionner des modèles précédents et préférés. Le contrecoup immédiat a poussé le PDG d’OpenAI, Sam Altman, à reconnaître les problèmes, confirmant le retour rapide du modèle GPT-4o. Cette concession initiale a été rapidement suivie par des ajustements plus étendus, signalant un écart notable par rapport à la philosophie du modèle unifié.
En réponse à la demande de contrôle plus granulaire, OpenAI a maintenant introduit un interrupteur “afficher les modèles supplémentaires” dans les paramètres web de ChatGPT pour les abonnés payants. Ce nouveau bouton donne accès à une gamme de modèles plus anciens, y compris o3, 4.1 et un mini-modèle spécialisé GPT-5 Thinking. De plus, GPT-5 lui-même offre désormais aux utilisateurs le choix entre les modes “Auto”, “Rapide” et “Thinking”. Alors que “Auto” est recommandé pour la plupart des cas d’utilisation générale, les options “Rapide” et “Thinking” s’adressent aux utilisateurs recherchant des caractéristiques de performance plus spécifiques ou un traitement computationnel plus approfondi, le mode “Thinking” étant actuellement plafonné à 3 000 messages par semaine. Altman a réitéré que GPT-4o reste le modèle par défaut pour tous les utilisateurs payants et a assuré qu’un préavis suffisant serait fourni s’il devait être progressivement abandonné.
Ces mises à jour rapides représentent une claire admission de la part d’OpenAI que son approche initiale du routage des requêtes de GPT-5 ne correspondait pas aux diverses préférences de sa base d’utilisateurs. Nick Turley, vice-président et responsable de ChatGPT chez OpenAI, a franchement reconnu l’erreur de l’entreprise, déclarant : “Nous n’allons pas toujours tout réussir du premier coup”, tout en exprimant sa fierté quant à la capacité de l’équipe à itérer rapidement sur la base des retours. Altman lui-même avait précédemment admis que l’interruption soudaine de modèles sur lesquels les utilisateurs comptaient était une erreur.
Malgré les ajustements internes et les changements impulsés par les utilisateurs, l’adoption de GPT-5 se poursuit dans l’industrie. Microsoft, par exemple, a récemment confirmé l’intégration du modèle dans GitHub Copilot pour Visual Studio, le saluant comme le modèle le plus avancé d’OpenAI à ce jour. Pour l’avenir, OpenAI travaille également à affiner la “personnalité” de GPT-5 pour qu’elle soit “plus chaleureuse” que son itération actuelle, tout en étant moins sujette aux désagréments perçus par certains utilisateurs avec GPT-4o. Ce raffinement continu souligne un apprentissage clé pour l’entreprise : l’impératif d’une plus grande personnalisation par utilisateur des personnalités des modèles d’IA pour répondre aux exigences variées de son public mondial.