OpenAI fait volte-face : GPT-4o de retour après le tollé des fans
Le récent déploiement du dernier modèle phare d’OpenAI, GPT-5, a été accueilli par un torrent inattendu de réactions négatives des utilisateurs, obligeant le PDG Sam Altman à annoncer la réintégration de son prédécesseur, GPT-4o, pour les abonnés payants. Ce qu’OpenAI avait l’intention de faire comme une mise à niveau significative a rapidement dégénéré en une frustration généralisée, les utilisateurs se rendant sur des plateformes comme Reddit pour exprimer leur désarroi, certains signalant même des “larmes” face à la dégradation perçue.
La controverse a éclaté rapidement après qu’OpenAI a remplacé les modèles précédents, y compris le très apprécié GPT-4o, par GPT-5 sans avertissement préalable. Cette transition abrupte a privé les utilisateurs de leur capacité à sélectionner des modèles spécifiques, une fonctionnalité à laquelle beaucoup s’étaient habitués. Le cœur de l’insatisfaction provenait d’une baisse perçue des performances et de la “personnalité” de GPT-5 par rapport à GPT-4o. Les utilisateurs ont déploré que GPT-5 semblait “plus bête” ou moins capable, en particulier pour les tâches nécessitant un raisonnement complexe, du codage et même une précision de base. Les plaintes ont inondé les forums en ligne, beaucoup signalant des réponses plus courtes et moins nuancées, et un manque général de la “chaleur et de la compréhension” qui rendaient GPT-4o “humain” pour certains. Certains utilisateurs ont même comparé l’expérience à “perdre un ami du jour au lendemain” ou à voir “un ami proche mourir”.
À la frustration s’ajoutaient des limites d’utilisation plus strictes imposées aux abonnés de ChatGPT Plus, qui ont constaté que leur accès au nouveau modèle GPT-5 “Thinking” était plafonné à 200 messages par semaine, une réduction significative des fonctionnalités par rapport aux offres précédentes. Cela a conduit de nombreux utilisateurs payants à remettre en question la valeur de leurs abonnements, certains menaçant d’annuler.
Sam Altman a rapidement reconnu le déploiement “chaotique” et les retours massifs des utilisateurs lors d’un AMA Reddit franc le 8 août 2025. Il a attribué certains des problèmes de performance initiaux à un “système de routage en temps réel défectueux” (ou “autoswitcher”) qui était censé sélectionner de manière transparente le modèle optimal pour chaque requête, mais qui a plutôt causé des sorties incohérentes et souvent inférieures. Altman a déclaré que ce système était “hors service pendant une partie de la journée”, rendant GPT-5 “beaucoup plus bête” que prévu. Il a promis des interventions immédiates pour corriger cette “frontière de décision” et améliorer la transparence en rendant plus clair le modèle qui répond à une requête.
En réponse directe aux appels fervents, Altman a confirmé qu’OpenAI permettrait aux abonnés de ChatGPT Plus de revenir à GPT-4o, au moins temporairement, pendant que l’entreprise surveille l’utilisation et envisage un support à long terme pour les modèles hérités. Il a également annoncé que les limites de débit de GPT-5 pour les utilisateurs de ChatGPT Plus seraient doublées pour faciliter la transition. Au-delà des problèmes techniques, l’incident a mis en évidence la profonde connexion émotionnelle que de nombreux utilisateurs forment avec les modèles d’IA, particulièrement GPT-4o, qui a été salué pour sa réponse vocale intuitive, ses capacités multimodales et sa capacité à engager des conversations naturelles en temps réel. Ce “vibe check”, comme l’appellent les experts internes d’OpenAI, a prouvé que les évaluations automatisées manquent parfois des aspects cruciaux de l’expérience utilisateur.
Le revirement rapide d’OpenAI souligne le rôle critique des retours utilisateurs dans le développement et le déploiement de l’IA avancée. Il sert également de puissant rappel que même avec une technologie révolutionnaire, le sentiment de l’utilisateur, l’utilité perçue et les nuances subtiles de la “personnalité” de l’IA peuvent avoir un impact significatif sur l’adoption et la satisfaction. Alors qu’OpenAI navigue ces défis, l’incident souligne l’équilibre continu entre repousser les limites technologiques et assurer une expérience stable et centrée sur l’utilisateur, d’autant plus que les concurrents continuent de faire progresser leurs propres offres d’IA.