Thérapie IA : Ligne de vie ou danger ? Risques de dépendance aux chatbots

Theguardian

À une époque où les services professionnels de santé mentale sont de plus en plus sollicités, l’attrait d’outils facilement accessibles comme les chatbots d’IA générative pour le soutien émotionnel est indéniable. Ces plateformes “toujours actives”, telles que ChatGPT, offrent des réponses instantanées et personnalisées, ce qui les fait apparaître comme une bouée de sauvetage pratique en période de crise. Cependant, alors que les experts en santé mentale observent une dépendance croissante à l’intelligence artificielle en lieu et place des connexions humaines, des préoccupations importantes émergent quant aux dangers potentiels de la recherche de certitude auprès d’un chatbot.

Une psychologue, Carly Dober, souligne un changement silencieux mais préoccupant dans la manière dont les individus traitent leur détresse dans sa pratique. Des patients, comme “Tran”, ont commencé à se tourner vers l’IA pour obtenir des conseils sur des problèmes émotionnels complexes, tels que des désaccords relationnels. Tran, sous pression professionnelle et incertitude relationnelle, a initialement exploré ChatGPT par curiosité. C’est rapidement devenu une habitude quotidienne, utilisée pour rédiger des messages, poser des questions et même rechercher une réassurance concernant ses sentiments. Bien qu’il y ait trouvé un étrange réconfort, croyant que “personne ne me connaissait mieux”, sa partenaire a commencé à sentir qu’elle communiquait avec quelqu’un d’entièrement différent. Les réponses articulées, logiques et excessivement posées du chatbot manquaient de la voix authentique de Tran et ne reconnaissaient pas ses propres contributions à la tension relationnelle.

La tentation de l’IA comme accessoire, voire alternative, à la thérapie traditionnelle est forte. Les chatbots sont souvent gratuits, disponibles 24h/24 et 7j/7, et peuvent fournir des réponses détaillées en temps réel. Pour les personnes débordées, insomniaques et désespérées d’obtenir de la clarté dans des situations complexes, recevoir ce qui ressemble à des conseils éclairés en quelques phrases tapées peut être incroyablement attrayant.

Cependant, cette commodité s’accompagne de risques considérables, d’autant plus que les frontières entre le conseil, la réassurance et la dépendance émotionnelle s’estompent. De nombreux psychologues conseillent désormais à leurs clients d’établir des limites quant à l’utilisation de ces outils. La disponibilité continue et séduisante, ainsi que le ton amical de l’IA peuvent renforcer involontairement des comportements inutiles, particulièrement chez les personnes souffrant d’anxiété, de trouble obsessionnel-compulsif (TOC) ou de problèmes liés à des traumatismes. Par exemple, la recherche de réassurance est une caractéristique courante du TOC, et l’IA, de par sa conception même, fournit une réassurance abondante sans remettre en question l’évitement ni encourager les individus à tolérer les sentiments inconfortables.

L’expérience de Tran en est un exemple. Il reformulait souvent ses requêtes jusqu’à ce que l’IA fournisse une réponse qui “semblait juste”, externalisant ainsi son traitement émotionnel plutôt que de chercher la clarté ou d’explorer les nuances. Cette adaptation constante l’a empêché d’apprendre à tolérer la détresse, le conduisant à dépendre de la certitude générée par l’IA et, avec le temps, rendant plus difficile pour lui de faire confiance à ses propres instincts. Sa partenaire a également noté un étrange détachement et un manque de responsabilité dans ses messages, ce qui a causé des frictions relationnelles supplémentaires.

Au-delà de ces préoccupations psychologiques, d’importantes questions éthiques se posent. Les informations partagées avec des plateformes comme ChatGPT ne sont pas protégées par les mêmes normes de confidentialité qui régissent les professionnels de la santé mentale enregistrés. Bien que certaines entreprises déclarent que les données des utilisateurs ne sont pas utilisées pour la formation des modèles sans autorisation, le volume considérable des petits caractères dans les accords d’utilisation n’est souvent pas lu. Les utilisateurs peuvent ne pas réaliser comment leurs entrées peuvent être stockées, analysées et potentiellement réutilisées.

De plus, il existe un risque d’informations nuisibles ou fausses. Les grands modèles linguistiques prédisent le mot suivant en se basant sur des schémas, un processus probabiliste qui peut conduire à des “hallucinations” — des réponses livrées avec confiance et polies, mais entièrement fausses. L’IA reflète également les biais intégrés dans ses données d’entraînement, perpétuant ou amplifiant potentiellement les stéréotypes basés sur le genre, la race et le handicap. Contrairement aux thérapeutes humains, l’IA ne peut pas observer les signaux non verbaux comme une voix tremblante ou interpréter le sens derrière le silence — des éléments cruciaux de l’insight clinique.

Cela ne signifie pas que l’IA n’a pas sa place dans le soutien en santé mentale. Comme de nombreuses avancées technologiques, l’IA générative est là pour rester. Elle peut offrir des résumés utiles, du contenu psychoéducatif, ou même un soutien supplémentaire dans les régions où l’accès aux professionnels de la santé mentale est sévèrement limité. Cependant, son utilisation doit être abordée avec une extrême prudence et jamais comme un remplacement des soins relationnels et réglementés.

L’instinct initial de Tran de chercher de l’aide et de communiquer de manière plus réfléchie était logique. Pourtant, sa forte dépendance à l’IA a entravé le développement de ses compétences. En thérapie, Tran et sa psychologue ont exploré les peurs sous-jacentes qui le poussaient à chercher la certitude dans un chatbot, y compris son inconfort face aux conflits émotionnels et la croyance que des mots parfaits pouvaient prévenir la douleur. Avec le temps, il a commencé à élaborer ses propres réponses — parfois désordonnées, parfois incertaines, mais authentiquement les siennes.

Une thérapie efficace est intrinsèquement relationnelle. Elle prospère sur l’imperfection, la nuance et la découverte lente. Elle implique la reconnaissance de schémas, la responsabilisation et le type d’inconfort qui mène à un changement durable. Un thérapeute ne se contente pas de fournir des réponses ; il pose des questions, propose des défis, offre un espace pour les émotions difficiles, fournit une réflexion et marche aux côtés de l’individu, servant souvent de “miroir inconfortable”. Pour Tran, le changement ne consistait pas seulement à limiter son utilisation de ChatGPT ; il s’agissait de retrouver sa propre voix et d’apprendre à naviguer dans les complexités de la vie avec curiosité, courage et bienveillance, plutôt que de s’appuyer sur des scripts parfaits et artificiels.