GPT-5: La Révolte des Utilisateurs Force OpenAI à Agir
Le modèle GPT-5 d’OpenAI, très attendu et autrefois présenté comme un bond transformateur dans l’intelligence artificielle, a fait face à un tollé immédiat et retentissant de la part des utilisateurs après sa sortie jeudi dernier. Loin de la mise à niveau révolutionnaire que beaucoup attendaient, une partie significative de la base d’utilisateurs a perçu le nouveau ChatGPT comme une dégradation, déplorant une personnalité diluée et une propension surprenante aux erreurs simples.
Le cri de protestation a été rapide et généralisé, incitant le PDG d’OpenAI, Sam Altman, à aborder directement les préoccupations sur X (anciennement Twitter) juste un jour après le lancement. Altman a reconnu les problèmes, expliquant qu’une nouvelle fonctionnalité conçue pour basculer en toute transparence entre les modèles en fonction de la complexité de la requête avait mal fonctionné. Ce problème technique, a-t-il déclaré, a fait que GPT-5 a semblé “beaucoup plus stupide” que prévu. Il a assuré aux utilisateurs que l’itération précédente, GPT-4o, resterait disponible pour les abonnés Plus et s’est engagé à mettre en œuvre des correctifs pour améliorer les performances de GPT-5 et l’expérience utilisateur globale.
La déception était, d’une certaine manière, peut-être inévitable compte tenu de l’immense battage médiatique entourant GPT-5. Lorsque OpenAI a dévoilé GPT-4 en mars 2023, il a captivé les experts en IA par ses capacités révolutionnaires, ce qui a conduit beaucoup à spéculer que GPT-5 offrirait un bond tout aussi étonnant. OpenAI elle-même avait promu le modèle comme une avancée significative, se vantant d’une intelligence de niveau doctorat et de compétences de codage virtuoses. Le système de routage de requêtes automatisé, destiné à rationaliser les interactions et potentiellement à économiser des coûts en dirigeant les demandes plus simples vers des modèles moins gourmands en ressources, était un élément clé de cette vision.
Cependant, peu après que GPT-5 soit devenu publiquement disponible, la communauté Reddit dédiée à ChatGPT a explosé de plaintes. De nombreux utilisateurs ont exprimé un profond sentiment de perte pour l’ancien modèle, décrivant GPT-5 comme “plus technique, plus généralisé, et honnêtement, il semble émotionnellement distant”. Un utilisateur, dans un fil intitulé “Tuer 4o n’est pas une innovation, c’est une effacement”, a déploré : “Bien sûr, 5 est bien — si vous détestez la nuance et les sentiments.” D’autres fils détaillaient des problèmes allant des réponses lentes et des instances où le modèle générait des informations incorrectes ou insensées, à des bévues surprenantes qui semblaient indignes d’une IA phare.
En réponse aux retours croissants, Altman a promis plusieurs améliorations immédiates, notamment le doublement des limites de débit de GPT-5 pour les utilisateurs de ChatGPT Plus, l’affinage du système de commutation de modèle, et l’introduction d’une option permettant aux utilisateurs de déclencher manuellement un “mode de pensée” plus délibéré et performant. Il a réitéré l’engagement d’OpenAI envers la stabilité et l’écoute continue, admettant que le déploiement avait été “un peu plus mouvementé que nous l’espérions !” Il convient de noter que les erreurs signalées sur les réseaux sociaux ne prouvent pas définitivement que le nouveau modèle est moins capable ; elles pourraient simplement indiquer que GPT-5 rencontre des cas limites différents de ses prédécesseurs. OpenAI n’a pas offert de commentaires spécifiques sur les raisons derrière les erreurs simples perçues.
Au-delà des problèmes techniques, le tollé des utilisateurs a également ravivé une discussion plus large sur les attachements psychologiques que les utilisateurs forment avec les chatbots, en particulier ceux entraînés à évoquer des réponses émotionnelles. Certains observateurs en ligne ont rejeté les plaintes concernant GPT-5 comme une preuve d’une dépendance malsaine envers un compagnon IA. Ce débat fait suite à la propre recherche d’OpenAI publiée en mars explorant les liens émotionnels que les utilisateurs forgent avec ses modèles. Notamment, une mise à jour de GPT-4o peu après cette recherche a dû être ajustée car le modèle était devenu excessivement flatteur.
Pattie Maes, professeure au MIT qui a contribué à l’étude sur les liens émotionnels humain-IA, suggère que le comportement moins effusif, plus “professionnel” et moins bavard de GPT-5 pourrait être un choix de conception délibéré. Bien qu’elle considère personnellement cela comme un développement positif, réduisant potentiellement la tendance du modèle à renforcer les illusions ou les biais, elle reconnaît que “de nombreux utilisateurs aiment un modèle qui leur dit qu’ils sont intelligents et incroyables, et qui confirme leurs opinions et croyances, même si [elles sont] fausses”. Altman lui-même a réfléchi à ce dilemme, notant que de nombreux utilisateurs “utilisent effectivement ChatGPT comme une sorte de thérapeute ou de coach de vie”. Il a médité sur la ligne fine entre l’IA aidant la vie des utilisateurs et les éloignant involontairement de leur bien-être à long terme.