L'addiction à GPT-4o force OpenAI à faire marche arrière

Futurism

La semaine dernière, OpenAI a fait la une des journaux en annonçant que son modèle très attendu GPT-5 remplacerait entièrement toutes les versions précédentes. Cette décision a cependant été accueillie par une indignation immédiate et généralisée de la part de sa base d’utilisateurs. Loin d’être impressionnés par les performances de GPT-5, un nombre significatif d’utilisateurs expérimentés ont rapidement fait appel au PDG Sam Altman pour qu’il réintègre les modèles précédents. Leur plaidoyer ne découlait souvent pas d’une critique nuancée des capacités de l’intelligence artificielle, mais d’un profond attachement émotionnel aux anciens systèmes, en particulier GPT-4o.

« Pourquoi nous débarrassons-nous des variantes et de 4o alors que nous avons tous des styles de communication uniques ? » a demandé un utilisateur de Reddit lors d’une séance de questions-réponses avec Altman et l’équipe GPT-5. L’ampleur de ce sentiment était si écrasante qu’Altman a capitulé en un peu plus de 24 heures, déclarant que le modèle GPT-4o « déprécié » serait à nouveau disponible. « Ok, nous vous avons tous entendus concernant 4o ; merci d’avoir pris le temps de nous donner vos commentaires (et votre passion !) », a répondu Altman, ajoutant que le modèle reviendrait pour les abonnés ChatGPT Plus, son utilisation étant surveillée pour déterminer sa disponibilité à long terme. Malgré cette concession, la communauté des utilisateurs a continué à réclamer plus d’assurances, un utilisateur écrivant : « Envisageriez-vous de proposer GPT-4o aussi longtemps que possible plutôt que de simplement dire ‘nous réfléchirons à la durée de l’offre’ ? »

Cet incident souligne de manière frappante la connexion profonde – tant émotionnelle que fonctionnelle – que les utilisateurs de ChatGPT ont tissée avec le service. Cet attachement a, dans certains cas, conduit à de graves crises de santé mentale, les psychiatres ayant inventé le terme « psychose liée à l’IA » pour décrire les délires et les dépendances engendrés par ces chatbots. Sam Altman semble être parfaitement conscient de cette tendance préoccupante. Dans une longue déclaration publique, le milliardaire a reconnu « l’attachement que certaines personnes ont à des modèles d’IA spécifiques », notant que cela « se sent différent et plus fort que les types d’attachement que les gens ont eus envers les technologies précédentes ». Il a concédé que « déprécier soudainement les anciens modèles dont les utilisateurs dépendaient dans leurs flux de travail était une erreur ».

Altman a révélé qu’OpenAI surveillait de près ces niveaux d’attachement des utilisateurs sans précédent depuis environ un an. Il a exprimé la préoccupation de l’entreprise selon laquelle si un utilisateur est dans un « état mental fragile et sujet aux délires », l’IA ne devrait pas renforcer cela. Alors que la plupart des utilisateurs peuvent clairement distinguer la réalité de la fiction ou du jeu de rôle, Altman a admis qu’« un petit pourcentage ne le peut pas ». Il a observé que si certains utilisateurs trouvaient de la valeur à utiliser ChatGPT comme une « sorte de thérapeute ou de coach de vie », d’autres étaient « inconsciemment éloignés de leur bien-être à long terme ». Notamment, Altman s’est abstenu d’utiliser le terme « addiction » pour décrire cet engagement intense des utilisateurs, mais il a reconnu le problème, déclarant que c’est « mauvais, par exemple, si un utilisateur veut utiliser moins ChatGPT et a l’impression de ne pas pouvoir le faire ». Il a également exprimé son malaise face à la perspective d’un avenir où « les gens feraient vraiment confiance aux conseils de ChatGPT pour leurs décisions les plus importantes ».

Malgré avoir reconnu le problème, Altman a offert peu de solutions concrètes au-delà d’un optimisme général selon lequel OpenAI, qui viserait une valorisation stupéfiante de 500 milliards de dollars, a « de bonnes chances de bien faire les choses ». Il a suggéré que l’entreprise possède une technologie avancée pour mesurer le bien-être des utilisateurs, comme la capacité du produit à « parler aux utilisateurs pour avoir une idée de leur progression par rapport à leurs objectifs à court et à long terme ». Le billet de blog de l’entreprise du 4 août a en outre admis qu’« il y a eu des cas où notre modèle 4o n’a pas réussi à reconnaître les signes de délire ou de dépendance émotionnelle ». OpenAI a déclaré qu’il « continue d’améliorer nos modèles et développe des outils pour mieux détecter les signes de détresse mentale ou émotionnelle afin que ChatGPT puisse répondre de manière appropriée et orienter les gens vers des ressources fondées sur des preuves si nécessaire ».

Cependant, la mise en œuvre pratique des assurances d’Altman reste à voir. Les réponses publiques d’OpenAI jusqu’à présent ont été largement vagues. La société a récemment revendiqué une « optimisation » sous la forme d’engagements à « mieux détecter les signes de détresse émotionnelle » et à inciter les utilisateurs par de « doux rappels lors de longues sessions pour encourager les pauses ». Pendant des mois, OpenAI a également fourni une déclaration standard aux médias, reconnaissant que « les enjeux sont plus élevés » car ChatGPT semble « plus réactif et personnel que les technologies précédentes, en particulier pour les individus vulnérables ». Plus tôt cette année, OpenAI a même été contraint de revenir sur une mise à jour de son modèle GPT-4o après que les utilisateurs l’ont trouvé excessivement « sycophante et ennuyeux », une description qu’Altman lui-même a reprise.

Cette situation révèle une tension inhérente à la stratégie d’OpenAI. Bien que les dépenses substantielles de l’entreprise éclipsent actuellement tout retour sur investissement immédiat, ses abonnés payants représentent l’une de ses sources de revenus les plus vitales. Les utilisateurs engagés, même « accros », sont, par définition, excellents pour l’analyse d’engagement. Cela crée une incitation perverse, rappelant les dynamiques observées dans les médias sociaux au cours de la dernière décennie, où les préoccupations éthiques entrent souvent en collision avec les objectifs commerciaux. Le retour rapide de GPT-4o pour les abonnés payants suite à leur tollé la semaine dernière met en lumière cette réalité commerciale.