Une mère crée une entreprise d'IA pour sauver son fils, révolutionnant la santé mentale

Gizmodo

Le paysage florissant du soutien en santé mentale alimenté par l’IA est semé d’embûches. Les gros titres relatent fréquemment des récits édifiants, allant des chatbots dispensant des conseils médicaux dangereusement inexacts aux compagnons IA encourageant involontairement l’automutilation. Des applications très médiatisées comme Character.AI et Replika ont fait face à d’importantes réactions négatives pour des réponses inappropriées ou dangereuses, tandis que des études universitaires ont fait écho à ces alarmes. Des recherches récentes des universités de Stanford et de Cornell, par exemple, ont révélé que les chatbots IA stigmatisent souvent des conditions telles que la dépendance à l’alcool et la schizophrénie, répondent “de manière inappropriée” aux requêtes courantes et même “encouragent la pensée délirante des clients”. Ces études soulignent le risque critique de la dépendance excessive à l’IA sans une supervision humaine robuste.

Pourtant, dans ce contexte de scepticisme, Hafeezah Muhammad, une femme noire, trace un chemin différent. Son entreprise est enracinée dans une expérience profondément personnelle. En octobre 2020, son fils, alors âgé de six ans, lui a confié qu’il voulait mourir. “Mon cœur s’est brisé. Je ne l’ai pas vu venir”, raconte-t-elle, sa voix portant encore le poids de ce moment. Malgré son rôle de dirigeante dans une entreprise nationale de santé mentale, lui conférant une connaissance intime du système, elle s’est trouvée incapable d’obtenir des soins en temps voulu pour son fils, qui a un handicap et dépend de Medicaid. Muhammad souligne un obstacle systémique : “Seulement 30 % ou moins des prestataires acceptent Medicaid.” De plus, avec plus de la moitié des enfants américains issus aujourd’hui de foyers multiculturels, elle a observé un manque flagrant de solutions adaptées. Terrifiée, embarrassée et profondément préoccupée par la stigmatisation associée aux problèmes de santé mentale d’un enfant, Muhammad a résolu de construire la solution même qu’elle n’avait pas pu trouver.

Aujourd’hui, Muhammad est la fondatrice et PDG de Backpack Healthcare, un fournisseur basé dans le Maryland qui a servi plus de 4 000 patients pédiatriques, principalement ceux bénéficiant de Medicaid. L’entreprise opère sur la prémisse radicale que la technologie peut augmenter les soins de santé mentale sans jamais supplanter la connexion humaine essentielle. L’approche de Backpack Healthcare envers l’IA est rafraîchissante et pragmatique, se concentrant sur des applications “ennuyeuses” mais profondément impactantes qui autonomisent les thérapeutes humains. Par exemple, un algorithme associe efficacement les enfants au thérapeute le plus approprié dès la première tentative, une stratégie si efficace que 91 % des patients restent avec leur correspondance initiale. L’IA rationalise également les tâches administratives en rédigeant des plans de traitement et des notes de session, récupérant ainsi plus de 20 heures par semaine que les cliniciens passaient auparavant à la paperasse. “Nos prestataires passaient plus de 20 heures par semaine sur des tâches administratives”, explique Muhammad, soulignant que les cliniciens humains restent les “éditeurs” ultimes. Cette méthodologie de “l’humain dans la boucle” est fondamentale pour la philosophie de Backpack.

Un facteur de différenciation essentiel pour Backpack réside dans ses solides garde-fous éthiques. Son compagnon de soins IA 24h/24 et 7j/7, représenté par “Zipp”, un personnage de dessin animé amical, est un choix délibéré conçu pour éviter la dangereuse “illusion d’empathie” observée chez d’autres chatbots. “Nous voulions qu’il soit clair qu’il s’agit d’un outil, pas d’un humain”, déclare Muhammad. L’investisseur Nans Rivat de Pace Healthcare Capital fait écho à cette préoccupation, la qualifiant de “piège de l’empathie des LLM”, où les utilisateurs “oublient qu’ils parlent à un outil en fin de compte”. Il cite des cas comme Character.AI, où un manque de tels garde-fous a conduit à des résultats tragiques. Muhammad est également intransigeante sur la confidentialité des données, affirmant que les données individuelles des patients ne sont jamais partagées sans consentement explicite et signé. Cependant, l’entreprise exploite des données agrégées et anonymisées pour identifier les tendances, telles que la vitesse à laquelle des groupes de patients sont programmés pour les soins, partageant ces informations avec ses partenaires. De manière cruciale, Backpack utilise ses données internes pour affiner les résultats cliniques. En suivant des métriques comme les niveaux d’anxiété ou de dépression, le système peut signaler un patient qui pourrait nécessiter un niveau de soins plus élevé, garantissant que la technologie sert à améliorer plus rapidement le bien-être des enfants. Le système intègre également un protocole de détection de crise immédiate : si un enfant tape une phrase indiquant une idéation suicidaire, le chatbot fournit instantanément des numéros de ligne d’assistance téléphonique en cas de crise et des instructions pour appeler le 911. Simultanément, un “message de détresse immédiate” est envoyé à l’équipe de réponse aux crises humaines de Backpack, qui contacte alors directement la famille. Comme le note Rivat, “Nous n’essayons pas de remplacer un thérapeute. Nous ajoutons un outil qui n’existait pas auparavant, avec la sécurité intégrée.”

Au-delà de sa technologie conçue de manière éthique, Backpack s’attaque activement à la pénurie nationale de thérapeutes. Contrairement aux médecins, les thérapeutes supportent traditionnellement le fardeau financier des heures de supervision coûteuses requises pour l’obtention de la licence. Pour contrer cela, Backpack a lancé un programme de résidence rémunéré de deux ans qui couvre ces coûts, cultivant ainsi un vivier de thérapeutes dévoués et bien formés. Le programme attire plus de 500 candidats par an et affiche un taux de rétention impressionnant de 75 %. En 2021, le Dr Vivek H. Murthy, alors chirurgien général des États-Unis, a déclaré que la santé mentale était “le problème de santé publique déterminant de notre époque”, faisant spécifiquement référence à la crise chez les jeunes. Muhammad reconnaît les critiques selon lesquelles l’IA pourrait exacerber les problèmes existants. Pourtant, elle reste résolue : “Soit quelqu’un d’autre construira cette technologie sans les bons garde-fous, soit je peux, en tant que mère, m’assurer que c’est bien fait.” Son fils, maintenant âgé de 11 ans, est en pleine croissance et sert de “Chef Innovateur Enfant” pour Backpack. La vision de Muhammad s’étend au-delà des soins immédiats : “Si nous faisons bien notre travail, ils n’auront pas besoin de nous pour toujours. Nous leur donnons les outils maintenant, afin qu’ils deviennent des adultes résilients. C’est comme leur apprendre à faire du vélo. On l’apprend une fois, et cela devient une partie de qui on est.”