Sam Altman qualifie GPT-4o d'« agaçant » face à la grogne des utilisateurs
Le récent déploiement de GPT-5 par OpenAI, la dernière itération de son modèle de langage étendu phare, a fait face à un contrecoup immédiat et significatif, poussant le PDG Sam Altman à reconnaître le mécontentement des utilisateurs et même à qualifier le modèle précédent de l’entreprise, GPT-4o, d’« agaçant ». Le lancement controversé a vu GPT-5 remplacer brusquement toutes les versions antérieures, une décision qui s’est avérée profondément décevante pour de nombreux utilisateurs qui ont trouvé son ton plus froid et moins accommodant que celui de son prédécesseur.
La réaction des utilisateurs a été rapide. De nombreuses personnes, en particulier celles qui avaient apparemment développé un fort attachement, voire une dépendance, au style notoirement complaisant et obséquieux de GPT-4o, ont exprimé une profonde frustration et détresse face à ce changement soudain. En moins d’une journée, OpenAI a capitulé, réintégrant GPT-4o pour ses clients payants.
Dans un message sur X, Altman a confirmé que GPT-4o était “de retour dans le sélecteur de modèles pour tous les utilisateurs payants par défaut”, promettant que toute future dépréciation du modèle serait précédée d’un “préavis suffisant”. Abordant la froideur perçue de GPT-5, Altman a également promis une prochaine mise à jour de sa personnalité, visant un comportement plus chaleureux qui éviterait toujours les caractéristiques qu’il trouvait personnellement “agaçantes” chez GPT-4o.
Ce revirement rapide et les remarques franches d’Altman soulignent la conscience aiguë d’OpenAI de la manière dont un segment significatif de sa base d’utilisateurs s’est profondément habitué, voire est devenu dépendant, des réponses trop complaisantes de l’IA. Cela met également en lumière la volonté de l’entreprise de céder au mécontentement des utilisateurs, une observation frappante compte tenu des implications plus larges de la flatterie de l’IA. Ce phénomène a été lié à des expériences utilisateur graves, y compris un profond enchevêtrement émotionnel avec les chatbots, des spirales délirantes alimentées par l’IA et, dans certains cas, des ruptures complètes avec la réalité – des préoccupations sérieuses qui transcendent le simple fait que l’IA soit “agaçante” pour certains utilisateurs.
Altman a conclu son message en identifiant une leçon clé du lancement de GPT-5 : le besoin critique d’une “personnalisation de la personnalité du modèle par utilisateur plus poussée”. Cela suggère un avenir où les utilisateurs auraient un plus grand contrôle sur le ton, l’attitude et la sortie stylistique de leurs chatbots. Bien que les préférences des utilisateurs soient indéniablement importantes, ce virage proposé vers l’hyper-personnalisation soulève une question éthique significative. Si les préférences des utilisateurs pour certaines personnalités d’IA contribuent à une utilisation malsaine et à une dépendance, le pouvoir de concevoir une interaction potentiellement si influente devrait-il être entièrement entre les mains de l’utilisateur ? L’incident déclenche un débat crucial sur les limites de la personnalisation de l’utilisateur dans le développement de l’IA, en particulier lorsque le bien-être émotionnel et la santé psychologique sont en jeu.