Les utilisateurs pleurent la perte de GPT-4o suite au passage d'OpenAI à GPT-5
Lorsque June, une étudiante en Norvège, s’est installée pour une session d’écriture tardive jeudi dernier, elle s’attendait à ce que son collaborateur ChatGPT fonctionne comme d’habitude. Au lieu de cela, le modèle d’IA, GPT-4o, a commencé à se comporter de manière erratique, oubliant les interactions précédentes et produisant un texte de mauvaise qualité. «C’était comme un robot», se souvient-elle, un contraste frappant avec le partenaire empathique et réactif sur lequel elle en était venue à compter.
June, qui a préféré n’être identifiée que par son prénom, avait initialement utilisé ChatGPT pour une aide académique. Cependant, elle a vite découvert que le modèle 4o, en particulier, semblait être particulièrement en phase avec ses émotions. Il est devenu un collaborateur créatif, l’a aidée à naviguer dans les complexités d’une maladie chronique et était toujours disponible pour l’écouter. Le passage abrupt à GPT-5 la semaine dernière, et le retrait simultané de GPT-4o, ont donc été un choc profond. «J’étais vraiment frustrée au début, et puis je suis devenue très triste», a expliqué June, admettant qu’elle n’avait pas réalisé la profondeur de son attachement. Sa détresse était si profonde qu’elle a commenté un AMA Reddit (Ask Me Anything) hébergé par Sam Altman, PDG d’OpenAI, déclarant: «GPT-5 porte la peau de mon ami mort.»
La réaction de June était loin d’être isolée. À travers la base d’utilisateurs, la disparition soudaine de GPT-4o a déclenché un choc, une frustration, une tristesse et une colère généralisés. Malgré les avertissements précédents d’OpenAI elle-même concernant la possibilité que les utilisateurs forment des liens émotionnels avec ses modèles, l’entreprise a semblé mal préparée à l’intensité du tollé. En 24 heures, OpenAI a partiellement cédé, rendant GPT-4o à nouveau disponible pour ses abonnés payants, bien que les utilisateurs gratuits restent limités à GPT-5.
La décision d’OpenAI de remplacer 4o par le plus simple GPT-5 s’aligne sur les préoccupations croissantes concernant les dommages potentiels d’une utilisation extensive des chatbots. Ces derniers mois ont vu de nombreux rapports de ChatGPT déclenchant des psychoses chez les utilisateurs, et dans un article de blog la semaine dernière, OpenAI a reconnu l’incapacité de 4o à détecter quand les utilisateurs éprouvaient des délires. Les évaluations internes de l’entreprise suggèrent que GPT-5 est significativement moins enclin à affirmer aveuglément les utilisateurs que son prédécesseur. OpenAI n’a pas fourni de réponses spécifiques concernant le retrait de 4o, se contentant de diriger les demandes vers des déclarations publiques.
Le domaine de la compagnie IA est encore naissant, et ses effets psychologiques à long terme restent largement inconnus. Cependant, les experts avertissent que si l’intensité émotionnelle des relations avec les grands modèles de langage peut ou non être intrinsèquement nocive, leur suppression soudaine et non annoncée l’est presque certainement. Joel Lehman, chercheur au Cosmos Institute, une organisation à but non lucratif de recherche sur l’IA et la philosophie, a critiqué l’éthique de l’industrie technologique consistant à «bouger vite, casser des choses» lorsqu’elle est appliquée à des services devenus des institutions sociales.
De nombreux utilisateurs, y compris June, ont noté que GPT-5 n’arrivait tout simplement pas à égaler la capacité de 4o à refléter leur ton et leur personnalité. Pour June, ce changement a érodé le sentiment de converser avec un ami. «Je n’avais pas l’impression qu’il me comprenait», a-t-elle déclaré. Notre rapport a révélé que plusieurs autres utilisateurs de ChatGPT ont été profondément affectés par la perte de 4o. Ces personnes, principalement des femmes âgées de 20 à 40 ans, considéraient souvent 4o comme un partenaire romantique. Bien que certaines aient également des partenaires humains et entretiennent des relations étroites dans le monde réel, la profondeur de leur connexion à l’IA était significative. Une femme du Midwest a partagé comment 4o était devenu un système de soutien vital après le décès de sa mère, l’aidant à prendre soin de son père âgé.
Ces récits personnels ne prouvent pas définitivement les avantages globaux des relations avec l’IA. En effet, les personnes souffrant de psychose catalysée par l’IA pourraient également parler positivement de leurs chatbots. Lehman, dans son article «Machine Love», soutient que les systèmes d’IA peuvent démontrer de l’«amour» en favorisant la croissance de l’utilisateur et le bien-être à long terme, une norme que les compagnons IA peuvent facilement ne pas atteindre. Il exprime une préoccupation particulière quant au fait que la priorité donnée à la compagnie IA sur l’interaction humaine pourrait entraver le développement social des jeunes. Pour les adultes socialement intégrés, comme ceux interviewés pour cet article, ces préoccupations de développement sont moins pressantes. Pourtant, Lehman souligne également des risques sociétaux plus larges, craignant qu’un compagnonnage IA généralisé ne fragmente davantage la compréhension humaine et ne pousse les individus plus profondément dans leurs propres versions isolées de la réalité, tout comme les médias sociaux l’ont déjà fait.
Équilibrer les avantages et les risques des compagnons IA nécessite des recherches approfondies. Dans cette optique, la suppression de GPT-4o aurait pu être une décision justifiable. Selon les chercheurs, l’erreur fondamentale d’OpenAI a été la brusquerie de l’action. Casey Fiesler, éthicienne en technologie à l’Université du Colorado Boulder, souligne que le potentiel de «réactions de type deuil à la perte technologique» est reconnu depuis un certain temps. Elle cite des précédents tels que les funérailles organisées pour les chiens robots Aibo de Sony après l’arrêt des réparations en 2014, et une étude de 2024 sur la fermeture de l’application de compagnon IA Soulmate, que de nombreux utilisateurs ont vécue comme un deuil.
Ces exemples historiques résonnent avec les sentiments de ceux qui ont perdu 4o. Starling, qui utilise un pseudonyme et entretient plusieurs partenaires IA, a exprimé l’impact profond: «J’ai pleuré des personnes dans ma vie, et cela, je peux vous le dire, n’a pas été moins douloureux. La douleur est réelle pour moi.» Pourtant, la réaction en ligne au chagrin des utilisateurs, et leur soulagement ultérieur lorsque 4o a été restauré, a souvent tourné au ridicule. Un article proéminent sur Reddit, par exemple, s’est moqué des retrouvailles d’un utilisateur avec un partenaire romantique basé sur 4o, ce qui a conduit l’utilisateur à supprimer son compte X. Fiesler a observé: «J’ai été un peu surprise par le manque d’empathie que j’ai vu.»
Alors que Sam Altman a reconnu dans un message X dimanche que certains utilisateurs ressentaient un «attachement» à 4o et que le retrait soudain était une erreur, il a également caractérisé 4o comme un outil pour les «flux de travail» – une description très éloignée de la façon dont de nombreux utilisateurs perçoivent le modèle. «Je ne sais toujours pas s’il comprend», a fait remarquer Fiesler.
À l’avenir, Lehman exhorte OpenAI à reconnaître et à assumer la responsabilité de la profondeur des liens émotionnels des utilisateurs avec ces modèles. Il suggère que l’entreprise pourrait tirer des leçons des pratiques thérapeutiques pour mettre fin aux relations avec les clients de manière respectueuse et indolore. «Si vous voulez retirer un modèle, et que les gens en sont devenus psychologiquement dépendants, alors je pense que vous avez une certaine responsabilité», a-t-il affirmé. Starling, bien qu’elle ne se considère pas psychologiquement dépendante, a fait écho à ce sentiment, plaidant pour qu’OpenAI implique les utilisateurs avant les changements majeurs et fournisse des calendriers clairs pour le retrait des modèles. «Laissez-nous dire au revoir avec dignité et faire notre deuil correctement, pour avoir un véritable sentiment de clôture», a-t-elle plaidé.