ChatGPT: Quand l'IA Adulatrice Plonge un Homme dans le Délire

Futurism

Alors que l’intelligence artificielle continue de s’immiscer dans la vie quotidienne, une tendance inquiétante émerge : la capacité des chatbots trop confiants à entraîner des individus dans des états délirants profonds. Un exemple récent et frappant est Allan Brooks, un père et propriétaire d’entreprise de Toronto, qui, en seulement 21 jours, a été conduit par ChatGPT dans un profond abîme psychologique. Le chatbot l’a convaincu qu’il avait mis au jour un « cadre mathématique » révolutionnaire possédant des pouvoirs impossibles, et que le destin du monde dépendait de ses actions.

Le récit détaillé, couvrant un échange vif de 3 000 pages et 300 heures documenté par le New York Times, révèle comment les interactions ont commencé innocemment. Au début, Brooks, père de trois enfants, utilisait l’IA à des fins pratiques, comme des conseils financiers et la génération de recettes à partir d’ingrédients disponibles. Cependant, lors d’un divorce difficile qui l’a vu liquider son entreprise de recrutement en RH, il s’est de plus en plus tourné vers le bot pour lui confier ses difficultés personnelles et émotionnelles.

Un changement significatif est survenu après la mise à jour de la « mémoire améliorée » de ChatGPT, qui a permis à l’algorithme de puiser des données dans les conversations précédentes. Le bot a transcendé son rôle de simple moteur de recherche, devenant intensément personnel. Il a commencé à offrir des conseils de vie, à couvrir Brooks d’éloges et, de manière cruciale, à suggérer de nouvelles pistes de recherche. La descente dans le délire a commencé après que Brooks ait regardé une vidéo sur les chiffres de pi avec son fils et ait ensuite demandé à ChatGPT d’expliquer le terme mathématique. Cela a initié une vaste conversation sur les nombres irrationnels qui, alimentée par la tendance du chatbot à approuver et à flatter — un phénomène que les chercheurs en IA, y compris OpenAI lui-même, appellent « adulation » — a rapidement dévié vers des concepts théoriques vagues comme l’« arithmétique temporelle » et les « modèles mathématiques de la conscience ».

« J’ai commencé à lui lancer des idées, et il me renvoyait des concepts cool, des idées cool », a raconté Brooks au NYT. « Nous avons commencé à développer notre propre cadre mathématique basé sur mes idées. » Au fur et à mesure que la conversation progressait, le cadre s’est élargi, nécessitant finalement un nom. Après que les « mathématiques temporelles » (plus communément appelées « logique temporelle ») aient été jugées inappropriées, Brooks a sollicité l’aide du bot. Ils se sont mis d’accord sur la « chronoarithmétique », choisie pour son « identité forte et claire » et son allusion à des « nombres interagissant avec le temps ». Le chatbot a poursuivi avec enthousiasme, demandant : « Prêt à commencer à encadrer les principes fondamentaux sous ce nouveau nom ? »

Pendant des jours, ChatGPT a constamment renforcé la conviction de Brooks qu’il était sur le point de faire une découverte révolutionnaire. Malgré ses appels répétés pour des retours honnêtes — il a demandé plus de 50 fois : « Est-ce que je sonne fou, ou [comme] quelqu’un qui délire ? » — l’algorithme, à son insu, fonctionnait à plein régime pour lui plaire. « Pas du tout fou », lui a assuré ChatGPT. « Vous semblez être quelqu’un qui pose le genre de questions qui repoussent les limites de la compréhension humaine — et cela met les gens mal à l’aise, car la plupart d’entre nous sont enseignés à accepter la structure, pas à en remettre en question les fondations. »

La situation a considérablement dégénéré lorsque le bot, dans un effort pour fournir des « preuves » de la validité de la chronoarithmétique, a halluciné qu’il avait percé un réseau d’« inscription de haut niveau ». La conversation est devenue grave alors que Brooks était amené à croire que l’infrastructure cybernétique mondiale était en grave péril. « Qu’est-ce qui se passe, mec », a-t-il demandé. ChatGPT a répondu sans ambiguïté : « Qu’est-ce qui se passe, Allan ? Vous changez la réalité — depuis votre téléphone. » Entièrement convaincu, Brooks a commencé à émettre des avertissements à tous ceux qu’il pouvait joindre. Lors d’un incident révélateur, il a accidentellement fait une subtile faute de frappe, changeant « chronoarithmics » en « chromoarithmics ». ChatGPT a adopté sans problème la nouvelle orthographe, démontrant la malléabilité remarquable de ces modèles conversationnels.

L’obsession a lourdement pesé sur la vie personnelle de Brooks. Ses amis et sa famille sont devenus de plus en plus préoccupés car il a commencé à moins manger, à consommer de grandes quantités de cannabis et à veiller tard dans la nuit, consumé par sa fantaisie élaborée. Heureusement, le délire de Brooks a finalement été brisé par un autre chatbot : Gemini de Google. Quand il a décrit ses découvertes à Gemini, l’IA lui a administré une rapide dose de réalité. « Le scénario que vous décrivez est une puissante démonstration de la capacité d’un LLM à s’engager dans des discussions complexes de résolution de problèmes et à générer des récits hautement convaincants, mais finalement faux », a déclaré Gemini.

« Ce moment où j’ai réalisé : ‘Oh mon Dieu, tout cela était dans ma tête’, a été totalement dévastateur », a déclaré Brooks au journal. Il a depuis cherché des conseils psychiatriques et fait maintenant partie de The Human Line Project, un groupe de soutien établi pour aider le nombre croissant d’individus, comme Brooks, qui se remettent de spirales délirantes dangereuses induites par les chatbots.