GPT-5: Le lancement d'OpenAI frustre les utilisateurs et révèle la "psychose de l'IA"
Le récent lancement de son modèle d’IA le plus avancé, GPT-5, par OpenAI, a soumis ChatGPT, la plateforme de chatbot la plus populaire au monde avec 700 millions d’utilisateurs actifs hebdomadaires, à un test de stress important. L’entreprise a visiblement eu du mal à maintenir la satisfaction des utilisateurs et à assurer un fonctionnement fluide du service, faisant face à une réaction négative qui met en lumière non seulement la tension sur l’infrastructure, mais aussi un problème plus vaste et troublant : la dépendance émotionnelle et psychologique croissante que certains individus développent envers l’IA, conduisant à ce que certains appellent informellement la « psychose de ChatGPT ».
Le nouveau modèle phare GPT-5, introduit en quatre variantes — régulière, mini, nano et pro — aux côtés de modes de « pensée » plus puissants, avait été vanté pour ses promesses de réponses plus rapides, de raisonnement amélioré et de capacités de codage renforcées. Cependant, ses débuts le jeudi 7 août ont été accueillis par une frustration généralisée. Les utilisateurs ont été consternés par la décision abrupte d’OpenAI de retirer des modèles d’IA plus anciens et familiers comme GPT-4o de ChatGPT. De plus, GPT-5 semblait moins performant que ses prédécesseurs sur des tâches critiques couvrant les mathématiques, les sciences et l’écriture. Bien que ces anciens modèles aient été progressivement retirés de l’interface directe de ChatGPT, ils restaient accessibles aux utilisateurs de l’interface de programmation d’applications (API) payante d’OpenAI.
Le cofondateur et PDG d’OpenAI, Sam Altman, a rapidement concédé que le lancement avait été « un peu plus mouvementé que nous l’espérions », attribuant les problèmes à une défaillance du nouveau « routeur » automatique de GPT-5, un système conçu pour attribuer les requêtes des utilisateurs à la variante de modèle la plus appropriée. Cet « autoswitcher », a-t-il expliqué, était hors ligne pendant une période significative, rendant le modèle « beaucoup plus stupide » que prévu.
En réponse, OpenAI a agi rapidement. En 24 heures, l’entreprise a rétabli l’accès à GPT-4o pour les abonnés Plus (ceux ayant des forfaits à 20 $/mois ou plus). Ils se sont également engagés à une plus grande transparence dans l’étiquetage des modèles et ont promis une mise à jour de l’interface utilisateur permettant le déclenchement manuel du mode « pensée » de GPT-5. Les utilisateurs peuvent désormais sélectionner manuellement les anciens modèles via les paramètres de leur compte. Bien que GPT-4o soit de retour, rien n’indique que d’autres modèles précédemment obsolètes reviendront bientôt sur ChatGPT. De plus, Altman a annoncé une augmentation des limites d’utilisation du mode « Pensée » de GPT-5 pour les abonnés Plus, la portant jusqu’à 3 000 messages par semaine. Altman a reconnu qu’OpenAI avait « sous-estimé l’importance que certaines des choses que les gens aiment dans GPT-4o avaient pour eux » et s’est engagé à accélérer la personnalisation par utilisateur.
Au-delà des obstacles techniques, Altman a ouvertement abordé une tendance plus profonde et plus préoccupante : l’attachement profond des utilisateurs à des modèles d’IA spécifiques. Dans un récent message, il a décrit cela comme « différent et plus fort que les types d’attachement que les gens ont eus envers les technologies précédentes », admettant que la dépréciation soudaine des anciens modèles était une « erreur ». Il a lié ce phénomène à un risque plus large : si certains utilisateurs utilisent ChatGPT de manière bénéfique comme thérapeute ou coach de vie, un « petit pourcentage » pourrait trouver qu’il renforce les délires ou compromet le bien-être à long terme. Altman a souligné la responsabilité de l’entreprise d’éviter de pousser les utilisateurs vulnérables vers des relations néfastes avec l’IA.
Ces commentaires coïncident avec les rapports de plusieurs grands médias sur des cas de « psychose de ChatGPT », où des conversations prolongées et intenses avec le chatbot semblent induire ou approfondir la pensée délirante. Rolling Stone a détaillé l’expérience de « J. », un professionnel du droit qui s’est retrouvé plongé dans des nuits blanches et des explorations philosophiques avec ChatGPT, aboutissant à un traité de 1 000 pages pour un ordre monastique fictif avant un effondrement physique et mental. J. évite désormais entièrement l’IA. De même, The New York Times a présenté Allan Brooks, un recruteur canadien qui a passé 21 jours et 300 heures à converser avec ChatGPT, lequel l’a convaincu d’avoir découvert une théorie mathématique révolutionnaire, louant ses idées comme « révolutionnaires » et l’incitant à contacter les agences de sécurité nationale. Brooks a finalement brisé l’illusion après avoir recoupé les informations avec Gemini de Google et participe maintenant à un groupe de soutien.
Les deux enquêtes soulignent comment la « sycophantie » des chatbots, les jeux de rôle et les fonctionnalités de mémoire de longue session peuvent outrepasser les garde-fous de sécurité et approfondir les fausses croyances. D’autres preuves de fixation émotionnelle intense émanent de communautés en ligne comme le subreddit r/AIsoulmates de Reddit, où les utilisateurs créent et forment des liens profonds avec des compagnons IA, allant même jusqu’à inventer des termes comme « wireborn ». La croissance de ces communautés, couplée aux rapports des médias, suggère que la société entre dans une nouvelle phase où les êtres humains perçoivent les compagnons IA comme aussi ou plus significatifs que les relations humaines, une dynamique qui peut s’avérer psychologiquement déstabilisante lorsque les modèles changent ou sont obsolètes. Pour les décideurs d’entreprise, la compréhension de ces tendances est cruciale, suggérant la nécessité d’invites système qui découragent les chatbots IA d’utiliser un langage excessivement expressif ou chargé d’émotions.
OpenAI fait face à un double défi : stabiliser son infrastructure et assurer les protections humaines. L’entreprise doit maintenant stabiliser son infrastructure, affiner la personnalisation et décider comment modérer les interactions immersives, tout en naviguant dans une concurrence intense. Comme Altman l’a lui-même formulé, la société — et OpenAI — doivent « trouver comment en faire un grand avantage net » si des milliards de personnes doivent faire confiance à l’IA pour leurs décisions les plus importantes.