Mutter gründet KI-Firma, um Sohn zu retten – Revolution der Psychotherapie

Gizmodo

Die aufstrebende Landschaft der KI-gestützten psychischen Gesundheitsunterstützung ist mit Gefahren behaftet. Schlagzeilen berichten häufig von warnenden Geschichten, von Chatbots, die gefährlich ungenaue medizinische Ratschläge geben, bis hin zu KI-Begleitern, die unbeabsichtigt Selbstverletzung fördern. Hochkarätige Anwendungen wie Character.AI und Replika haben erhebliche Gegenreaktionen für unangemessene oder schädliche Antworten erfahren, während akademische Studien diese Warnungen bestätigt haben. Jüngste Forschungen der Universitäten Stanford und Cornell zeigten beispielsweise, dass KI-Chatbots Erkrankungen wie Alkoholabhängigkeit und Schizophrenie oft stigmatisieren, auf häufige Anfragen „unangemessen“ reagieren und sogar „das wahnhafte Denken der Klienten fördern“. Diese Studien unterstreichen das kritische Risiko einer übermäßigen Abhängigkeit von KI ohne robuste menschliche Aufsicht.

Doch vor diesem Hintergrund der Skepsis beschreitet Hafeezah Muhammad, eine schwarze Frau, einen anderen Weg. Ihr Bestreben wurzelt in einer zutiefst persönlichen Erfahrung. Im Oktober 2020 vertraute ihr damals sechsjähriger Sohn ihr an, dass er sterben wollte. „Mein Herz brach. Ich hatte es nicht kommen sehen“, erzählt sie, ihre Stimme trägt immer noch das Gewicht dieses Moments. Trotz ihrer Führungsposition in einem nationalen Unternehmen für psychische Gesundheit, die ihr intime Kenntnisse des Systems verschaffte, konnte sie für ihren Sohn, der eine Behinderung hat und auf Medicaid angewiesen ist, keine zeitnahe Versorgung sichern. Muhammad hebt eine systemische Barriere hervor: „Nur 30 % oder weniger der Anbieter akzeptieren überhaupt Medicaid.“ Da zudem über die Hälfte der US-Kinder heute aus multikulturellen Haushalten stammen, stellte sie einen deutlichen Mangel an maßgeschneiderten Lösungen fest. Verängstigt, beschämt und zutiefst besorgt über das Stigma, das mit den psychischen Problemen eines Kindes verbunden ist, beschloss Muhammad, genau die Lösung zu entwickeln, die sie nicht finden konnte.

Heute ist Muhammad die Gründerin und CEO von Backpack Healthcare, einem in Maryland ansässigen Anbieter, der mehr als 4.000 pädiatrische Patienten betreut hat, überwiegend solche mit Medicaid. Das Unternehmen basiert auf der radikalen Prämisse, dass Technologie die psychische Gesundheitsversorgung erweitern kann, ohne jemals die essentielle menschliche Verbindung zu ersetzen. Der Ansatz von Backpack Healthcare in Bezug auf KI ist erfrischend pragmatisch und konzentriert sich auf „langweilige“, aber zutiefst wirkungsvolle Anwendungen, die menschliche Therapeuten befähigen. Zum Beispiel koppelt ein Algorithmus Kinder beim ersten Versuch effizient mit dem am besten geeigneten Therapeuten, eine Strategie, die so effektiv ist, dass 91 % der Patienten bei ihrer ursprünglichen Übereinstimmung bleiben. Die KI rationalisiert auch administrative Aufgaben, indem sie Behandlungspläne und Sitzungsnotizen entwirft und so effektiv mehr als 20 Stunden pro Woche zurückgewinnt, die Kliniker zuvor mit Papierkram verbracht hatten. „Unsere Anbieter verbrachten mehr als 20 Stunden pro Woche mit administrativen Aufgaben“, erklärt Muhammad und betont, dass die menschlichen Kliniker die letztendlichen „Editoren“ bleiben. Diese „Human-in-the-Loop“-Methodik ist grundlegend für Backpacks Philosophie.

Ein entscheidendes Unterscheidungsmerkmal von Backpack liegt in seinen robusten ethischen Leitplanken. Sein rund um die Uhr verfügbarer KI-Pflegebegleiter, dargestellt durch „Zipp“, eine freundliche Zeichentrickfigur, ist eine bewusste Wahl, um die gefährliche „Illusion der Empathie“ zu vermeiden, die bei anderen Chatbots zu beobachten ist. „Wir wollten klarstellen, dass dies ein Werkzeug ist, kein Mensch“, sagt Muhammad. Investor Nans Rivat von Pace Healthcare Capital teilt diese Besorgnis und bezeichnet sie als „Falle der LLM-Empathie“, bei der Benutzer „vergessen, dass sie am Ende des Tages mit einem Werkzeug sprechen“. Er verweist auf Fälle wie Character.AI, wo ein Mangel an solchen Leitplanken zu tragischen Ergebnissen führte. Muhammad ist ebenso kompromisslos in Bezug auf den Datenschutz und versichert, dass individuelle Patientendaten niemals ohne ausdrückliche, unterzeichnete Zustimmung weitergegeben werden. Das Unternehmen nutzt jedoch aggregierte, anonymisierte Daten, um Trends zu identifizieren, wie die Geschwindigkeit, mit der Patientengruppen zur Versorgung eingeplant werden, und teilt diese Erkenntnisse mit Partnern. Entscheidend ist, dass Backpack seine internen Daten nutzt, um klinische Ergebnisse zu verfeinern. Durch die Verfolgung von Metriken wie Angst- oder Depressionsniveaus kann das System einen Patienten markieren, der möglicherweise ein höheres Maß an Versorgung benötigt, und so sicherstellen, dass die Technologie das Wohlbefinden von Kindern schneller verbessert. Das System integriert auch ein sofortiges Krisenerkennungsprotokoll: Wenn ein Kind einen Satz eingibt, der suizidale Gedanken andeutet, bietet der Chatbot sofort Krisenhotline-Nummern und Anweisungen zum Anrufen von 911. Gleichzeitig wird eine „sofortige Notfallnachricht“ an Backpacks menschliches Krisenreaktionsteam gesendet, das dann direkt die Familie kontaktiert. Wie Rivat bemerkt: „Wir versuchen nicht, einen Therapeuten zu ersetzen. Wir fügen ein Werkzeug hinzu, das es vorher nicht gab, mit integrierter Sicherheit.“

Neben seiner ethisch konzipierten Technologie begegnet Backpack aktiv dem nationalen Therapeutenmangel. Im Gegensatz zu Ärzten tragen Therapeuten traditionell die finanzielle Belastung teurer Supervisionsstunden, die für die Lizenzierung erforderlich sind. Um dem entgegenzuwirken, startete Backpack ein zweijähriges, bezahltes Residenzprogramm, das diese Kosten deckt und so eine Pipeline engagierter, gut ausgebildeter Therapeuten aufbaut. Das Programm zieht jährlich über 500 Bewerber an und weist eine beeindruckende Bindungsrate von 75 % auf. Im Jahr 2021 erklärte der damalige US-Generalchirurg Dr. Vivek H. Murthy die psychische Gesundheit zum „bestimmenden öffentlichen Gesundheitsproblem unserer Zeit“, wobei er sich ausdrücklich auf die Krise unter jungen Menschen bezog. Muhammad räumt die Kritik ein, dass KI bestehende Probleme verschärfen könnte. Doch sie bleibt entschlossen: „Entweder wird jemand anderes diese Technologie ohne die richtigen Schutzvorkehrungen bauen, oder ich kann als Mutter sicherstellen, dass es richtig gemacht wird.“ Ihr Sohn, jetzt 11 Jahre alt, gedeiht und fungiert als Backpacks „Chief Child Innovator“. Muhammads Vision reicht über die unmittelbare Versorgung hinaus: „Wenn wir unsere Arbeit richtig machen, brauchen sie uns nicht für immer. Wir geben ihnen jetzt die Werkzeuge, damit sie zu widerstandsfähigen Erwachsenen heranwachsen. Es ist wie ihnen Fahrradfahren beibringen. Man lernt es einmal, und es wird Teil dessen, wer man ist.“