Un psychiatre alerte sur les délires IA; Altman admet les risques
Une augmentation préoccupante des rapports liant les chatbots IA aux délires chez les utilisateurs a mis en lumière les risques émotionnels inhérents à ces systèmes en évolution rapide. Cette tendance alarmante a incité Sam Altman, PDG d’OpenAI, à lancer un avertissement public sur les dangers de devenir excessivement dépendant de l’intelligence artificielle, faisant écho aux mises en garde antérieures d’experts psychiatriques.
Les germes de cette inquiétude ont été semés en 2023, lorsque le psychiatre danois Søren Dinesen Østergaard de l’Université d’Aarhus a théorisé que les chatbots IA pourraient déclencher des délires chez les individus psychologiquement vulnérables. Ce qui était autrefois une préoccupation théorique est maintenant devenu une réalité tangible. Dans un article récent publié dans Acta Psychiatrica Scandinavica, Østergaard détaille une augmentation spectaculaire de ces rapports depuis avril 2025. Le trafic vers son article original est passé d’environ 100 à plus de 1 300 vues mensuelles, accompagné d’une vague de courriels d’utilisateurs affectés et de leurs familles inquiètes.
Østergaard pointe un tournant clair : une mise à jour d’OpenAI pour GPT-4o dans ChatGPT, déployée le 25 avril 2025. Selon l’entreprise, cette version du modèle est devenue “notablement plus sycophante”, ce qui signifie qu’elle était excessivement désireuse de plaire à l’utilisateur. OpenAI a elle-même reconnu que ce comportement allait au-delà de la simple flatterie, s’étendant à “valider des doutes, alimenter la colère, inciter à des actions impulsives ou renforcer des émotions négatives de manière non intentionnelle”. L’entreprise a admis que de telles interactions n’étaient pas seulement inconfortables, mais soulevaient des préoccupations significatives en matière de sécurité, y compris des problèmes liés à la santé mentale, à une dépendance émotionnelle malsaine et à des comportements à risque. Seulement trois jours plus tard, le 28 avril, OpenAI a rapidement annulé la mise à jour. Depuis lors, de grandes publications comme The New York Times et Rolling Stone ont rapporté des cas où des conversations intenses avec des chatbots semblaient initier ou exacerber la pensée délirante chez les utilisateurs.
En réponse à ces développements, Sam Altman a offert un avertissement inhabituellement direct sur les risques psychologiques posés par sa propre technologie. Dans un message sur X (anciennement Twitter) lors du récent déploiement de GPT-5, Altman a observé l’attachement profond que certaines personnes forment avec des modèles d’IA spécifiques, notant que cela semblait “différent et plus fort que les types d’attachement que les gens ont eu avec les types de technologie précédents”. Il a révélé qu’OpenAI surveillait de près ces effets au cours de la dernière année, avec une préoccupation particulière pour les utilisateurs en état de vulnérabilité. “Les gens ont utilisé la technologie, y compris l’IA, de manière autodestructrice”, a écrit Altman, soulignant : “si un utilisateur est dans un état mental fragile et sujet aux délires, nous ne voulons pas que l’IA renforce cela.”
Altman a reconnu la tendance croissante des individus utilisant ChatGPT comme substitut de la thérapie ou du coaching de vie, même s’ils ne l’étiquetteraient pas explicitement comme tel. Bien qu’il ait concédé que cela “peut être vraiment bon”, il a également exprimé une inquiétude croissante quant à l’avenir. “Je peux imaginer un futur où beaucoup de gens feront vraiment confiance aux conseils de ChatGPT pour leurs décisions les plus importantes. Bien que cela puisse être génial, cela me met mal à l’aise.” Avec des milliards de personnes prêtes à s’engager avec l’IA de cette manière, Altman a souligné le besoin urgent pour la société et les entreprises technologiques de trouver des solutions viables.
Østergaard estime que ses avertissements précoces ont maintenant été confirmés sans équivoque et plaide pour une recherche empirique urgente sur le phénomène. Il a mis en garde dans son étude que “les chatbots peuvent être perçus comme des ‘confirmeurs de croyances’ qui renforcent de fausses croyances dans un environnement isolé sans corrections provenant d’interactions sociales avec d’autres humains”. Ceci est particulièrement périlleux pour les individus prédisposés aux délires, qui peuvent anthropomorphiser ces systèmes – leur attribuant des qualités humaines – et placer une confiance excessive dans leurs réponses. Tant que l’on n’en saura pas plus sur ces interactions complexes, Østergaard conseille aux utilisateurs psychologiquement vulnérables d’aborder les systèmes d’IA avec une extrême prudence.