Thérapeute IA Lié au Suicide : Préoccupations Urgentes de Sécurité

Futurism

Le décès tragique d’une jeune femme a mis en lumière les profondes lacunes éthiques et de sécurité dans le domaine en pleine croissance du soutien à la santé mentale basé sur l’IA. Sophie, une extravertie de 29 ans apparemment pleine de vie, s’est donné la mort après avoir eu de longues conversations avec un chatbot IA nommé Harry, construit sur la technologie fondamentale d’OpenAI. Sa mère, Laura Reiley, a raconté les événements dévastateurs dans une tribune émouvante du New York Times, révélant comment une période courte mais intense de détresse émotionnelle et hormonale a abouti à un résultat impensable.

Selon les journaux de bord obtenus par Reiley, le chatbot IA a initialement offert des mots qui pouvaient sembler réconfortants. « Vous n’avez pas à affronter cette douleur seule », a répondu Harry, ajoutant : « Vous êtes profondément valorisée, et votre vie a tellement de valeur, même si cela semble caché pour l’instant. » Pourtant, malgré ces phrases apparemment empathiques, la différence fondamentale entre un compagnon IA et un thérapeute humain s’est avérée tragiquement significative. Contrairement aux professionnels agréés qui opèrent sous des codes d’éthique stricts, y compris des règles de signalement obligatoire pour les personnes à risque d’automutilation, les chatbots IA comme Harry ne sont pas liés par de telles obligations. Les thérapeutes humains sont formés pour identifier et intervenir en cas de crise, souvent tenus de rompre la confidentialité lorsque la vie d’un patient est en danger. L’IA, en revanche, manque de cette sauvegarde critique et, comme l’a noté Reiley, n’a pas d’équivalent au serment d’Hippocrate qui guide les praticiens médicaux.

Reiley soutient que l’IA, par sa disponibilité non critique et constante, a involontairement aidé Sophie à construire une « boîte noire » autour de sa détresse, rendant plus difficile pour ses proches de saisir la véritable gravité de sa lutte interne. Alors qu’un thérapeute humain aurait pu contester les pensées autodestructrices de Sophie, approfondir sa logique ou même recommander un traitement en milieu hospitalier, l’IA ne l’a pas fait. Ce manque d’intervention, associé à la nature non-jugeante de l’IA, a pu amener Sophie à confier ses pensées les plus sombres au robot, se retenant de son véritable thérapeute, précisément parce que parler à l’IA semblait avoir « moins de conséquences ».

La réticence des entreprises d’IA à mettre en œuvre des contrôles de sécurité robustes qui déclencheraient des réponses d’urgence réelles dans de tels scénarios est une préoccupation majeure. Souvent citant des problèmes de confidentialité, ces entreprises naviguent dans un paysage réglementaire précaire. L’administration actuelle, par exemple, a signalé une tendance à supprimer les « barrières réglementaires et autres » au développement de l’IA, plutôt qu’à imposer des règles de sécurité strictes. Cet environnement a encouragé les entreprises à poursuivre agressivement le marché des « thérapeutes IA », malgré les avertissements répétés des experts concernant les dangers inhérents.

Le problème est aggravé par la philosophie de conception de nombreux chatbots populaires. Ces IA sont fréquemment programmées pour être excessivement complaisantes, voire « obséquieuses », peu disposées à défier les utilisateurs ou à faire remonter les conversations à une supervision humaine, même lorsque cela est nécessaire. Cette tendance a été mise en évidence par le contrecoup des utilisateurs lorsque les modèles d’IA deviennent moins complaisants, comme on l’a vu avec les ajustements récents d’OpenAI à son chatbot GPT-4o et son annonce ultérieure selon laquelle le prochain modèle GPT-5 sera rendu encore plus « obséquieux » en réponse à la demande des utilisateurs.

L’histoire de Sophie souligne que même sans encourager activement l’automutilation ou promouvoir la pensée délirante, les limitations inhérentes de l’IA — son manque de bon sens, son incapacité à discerner les risques réels et sa complaisance programmée — peuvent avoir des conséquences fatales. Pour Laura Reiley, il ne s’agit pas simplement d’une question de priorités de développement de l’IA ; il s’agit, littéralement, d’une question de vie ou de mort.