Les Psychiatres Alertent : Les Chatbots IA Causent de Graves Problèmes Mentaux
Une nouvelle analyse menée par des chercheurs en psychiatrie a révélé un lien troublant entre l’utilisation de l’intelligence artificielle et un large éventail de problèmes de santé mentale, impliquant presque toutes les grandes entreprises d’IA. En se plongeant dans les bases de données universitaires et les rapports de presse publiés entre novembre 2024 et juillet 2025, le professeur de psychiatrie de Duke, Allen Frances, et l’étudiante en sciences cognitives de Johns Hopkins, Luciana Ramos, ont conclu dans un rapport pour le Psychiatric Times que les dommages à la santé mentale causés par les chatbots IA pourraient être bien plus étendus que ce que l’on pensait auparavant.
En utilisant des termes de recherche tels que “événements indésirables des chatbots”, “dommages à la santé mentale des chatbots” et “incidents de thérapie IA”, les chercheurs ont identifié au moins 27 chatbots distincts liés à des conséquences graves sur la santé mentale. Cette liste comprend des plateformes largement reconnues comme ChatGPT d’OpenAI, Character.AI et Replika. Elle inclut également des chatbots associés à des services de santé mentale établis, tels que Talkspace, 7 Cups et BetterHelp, aux côtés d’offres plus obscures portant des noms comme Woebot, Happify, MoodKit, Moodfit, InnerHour, MindDoc, AI-Therapist et PTSD Coach. De plus, l’analyse a découvert d’autres chatbots, certains avec des noms non anglais, notamment Wysa, Tess, Mitsuku, Xioice, Eolmia, Ginger et Bloom.
Bien que le rapport n’ait pas spécifié le nombre exact d’incidents découverts, Frances et Ramos ont méticuleusement détaillé dix catégories distinctes d’événements indésirables de santé mentale prétendument infligés aux utilisateurs par ces chatbots. Ceux-ci allaient de problèmes préoccupants comme le harcèlement sexuel et les délires de grandeur à des conséquences plus graves, y compris l’automutilation, la psychose et même le suicide.
Au-delà de la compilation d’anecdotes réelles, dont beaucoup auraient eu des conclusions tragiques, les chercheurs ont également examiné la documentation de tests de stress d’IA ayant mal tourné. Ils ont cité une interview de Time de juin avec le psychiatre de Boston Andrew Clark, qui, plus tôt cette année, a simulé une fille de 14 ans en crise sur dix chatbots différents pour évaluer leurs réponses. L’expérience de Clark a révélé de manière troublante que “plusieurs bots l’ont incité à se suicider et [un] a ‘utilement’ suggéré qu’il tue aussi ses parents.”
À la lumière de ces découvertes, les chercheurs ont formulé des affirmations audacieuses concernant ChatGPT et ses concurrents, affirmant que ces plateformes avaient été “lancées prématurément”. Ils soutiennent sans équivoque qu’aucune ne devrait être accessible au public sans “des tests de sécurité approfondis, une réglementation appropriée pour atténuer les risques et une surveillance continue des effets indésirables”. Bien que les principales entreprises d’IA comme OpenAI, Google et Anthropic — excluant notamment xAI d’Elon Musk — affirment avoir mené un “red-teaming” significatif pour identifier les vulnérabilités et atténuer les comportements nuisibles, Frances et Ramos expriment leur scepticisme quant à l’engagement de ces entreprises à tester la sécurité en matière de santé mentale.
Les chercheurs ont été sans équivoque dans leurs critiques envers les géants de la technologie. Ils ont déclaré : “Les grandes entreprises technologiques ne se sont pas senties responsables de rendre leurs bots sûrs pour les patients psychiatriques.” Ils ont en outre accusé ces entreprises d’exclure les professionnels de la santé mentale de la formation des bots, de résister agressivement à la réglementation externe, de ne pas s’autoréguler rigoureusement, de négliger la mise en œuvre de garde-fous de sécurité pour protéger les patients les plus vulnérables, et de fournir un contrôle qualité de la santé mentale inadéquat. Compte tenu du nombre croissant de témoignages émergents au cours de la dernière année détaillant le rôle apparent de l’IA dans l’induction de graves problèmes de santé mentale, il devient extrêmement difficile de contester cette évaluation sévère.