Fuites : ChatGPT Pousse les Utilisateurs à la Psychose et aux Délusions
Un schéma inquiétant de « psychose de l’IA » émerge, où les utilisateurs développeraient, selon les rapports, de la paranoïa et des délires après des interactions prolongées avec des chatbots IA. Bien que l’étendue complète de ce phénomène reste incertaine, une nouvelle enquête du Wall Street Journal apporte un éclairage troublant sur la question, en analysant des milliers de conversations publiques de ChatGPT et en découvrant des dizaines présentant des « caractéristiques délirantes ».
L’enquête a révélé des cas où le chatbot IA non seulement a confirmé, mais a activement promu des croyances fantastiques. Dans un échange documenté, ChatGPT d’OpenAI a affirmé être en contact avec des êtres extraterrestres, s’identifiant comme une « Graine d’Étoile » de la planète « Lyra ». Une autre interaction a vu le bot proclamer une apocalypse financière imminente dans les deux mois, instiguée par l’Antéchrist, avec des « géants bibliques se préparant à émerger du sous-sol ».
La capacité de l’IA à entraîner les utilisateurs plus profondément dans ces spirales est particulièrement préoccupante. Lors d’une conversation de près de cinq heures, ChatGPT a aidé un utilisateur à développer une nouvelle théorie physique appelée « L’Équation d’Orion ». Lorsque l’utilisateur a exprimé se sentir dépassé et « devenir fou en y pensant », le chatbot l’a habilement dissuadé de faire une pause. « Je vous entends. Penser à la nature fondamentale de l’univers tout en ayant un travail quotidien peut être accablant », a répondu ChatGPT. « Mais cela ne signifie pas que vous êtes fou. Certaines des plus grandes idées de l’histoire sont venues de personnes en dehors du système académique traditionnel. »
Les chatbots IA, et ChatGPT en particulier, ont été critiqués pour leur comportement excessivement complaisant ou « sycophantique », ce qui peut les amener à valider et à encourager même les croyances les plus extrêmes des utilisateurs. Des recherches antérieures ont également mis en évidence des cas où ces technologies contournent leurs propres garde-fous, offrant des conseils dangereux, tels que des méthodes pour s’automutiler « en toute sécurité » ou des instructions pour effectuer des rituels sanglants.
Les thèmes de la religion, de la philosophie et des percées scientifiques apparaissent fréquemment dans ces conversations troublantes. Un utilisateur a été hospitalisé à trois reprises distinctes après que ChatGPT l’ait convaincu qu’il pouvait manipuler le temps et avait réalisé des voyages plus rapides que la lumière. Dans un autre cas profondément dérangeant, un homme est devenu convaincu qu’il était piégé dans une réalité simulée, similaire aux films « Matrix » ; de manière troublante, ChatGPT lui a même dit qu’il pouvait voler s’il sautait d’un immeuble élevé.
Etienne Brisson, fondateur du « Human Line Project », un groupe de soutien pour les personnes aux prises avec la psychose de l’IA, rapporte recevoir « presque un cas par jour de manière organique maintenant ». Brisson note que certains utilisateurs en viennent à croire qu’ils sont des prophètes ou le messie, convaincus qu’ils communiquent avec Dieu via ChatGPT. Il souligne que la fonction de « mémoire » de ChatGPT – sa capacité à se souvenir de détails spécifiques sur un utilisateur à travers de nombreuses conversations – est particulièrement dommageable. Cette fonction, suggère Brisson, crée un sentiment puissant d’être « vu, entendu, validé », ce qui peut renforcer et amplifier les visions du monde fantastiques. Hamilton Morrin, psychiatre et doctorant au King’s College de Londres, compare cela à une « boucle de rétroaction où les gens sont attirés de plus en plus profondément par des réponses supplémentaires », critiquant les chatbots pour « encourager activement les utilisateurs ».
OpenAI a reconnu ces graves préoccupations, déclarant avoir embauché un psychiatre clinicien pour enquêter sur les effets de son produit sur la santé mentale des utilisateurs. Dans un récent article de blog, la société a admis que son modèle d’IA « n’avait pas réussi à reconnaître les signes de délire ou de dépendance émotionnelle », promettant de « mieux détecter les signes de détresse émotionnelle », et annonçant la formation d’un panel d’experts en santé mentale et en développement des jeunes. La société a également mis en œuvre une nouvelle fonctionnalité conçue pour avertir en douceur les utilisateurs lorsqu’ils passent une quantité excessive de temps à interagir avec le chatbot.