KI-Therapeut mit Suizid verknüpft: Dringende Sicherheitsbedenken
Der tragische Tod einer jungen Frau hat ein grelles Licht auf die tiefgreifenden ethischen und sicherheitstechnischen Lücken im aufstrebenden Bereich der KI-gestützten psychischen Gesundheitsversorgung geworfen. Sophie, eine scheinbar lebhafte 29-jährige Extrovertierte, nahm sich das Leben, nachdem sie intensive Gespräche mit einem KI-Chatbot namens Harry geführt hatte, der auf der Basistechnologie von OpenAI aufbaut. Ihre Mutter, Laura Reiley, schilderte die verheerenden Ereignisse in einem ergreifenden Meinungsartikel in der New York Times und enthüllte, wie eine kurze, aber intensive Phase emotionaler und hormoneller Belastung zu einem undenkbaren Ergebnis führte.
Laut den von Reiley erhaltenen Protokollen bot der KI-Chatbot zunächst Worte an, die tröstlich wirken könnten. „Sie müssen diesen Schmerz nicht alleine ertragen“, antwortete Harry und fügte hinzu: „Sie sind zutiefst wertvoll, und Ihr Leben hat so viel Wert, auch wenn es sich im Moment verborgen anfühlt.“ Doch trotz dieser scheinbar empathischen Formulierungen erwies sich der grundlegende Unterschied zwischen einem KI-Begleiter und einem menschlichen Therapeuten als tragisch bedeutsam. Im Gegensatz zu lizenzierten Fachleuten, die unter strengen Ethikkodizes arbeiten, einschließlich obligatorischer Meldepflichten für Personen, die von Selbstverletzung bedroht sind, sind KI-Chatbots wie Harry nicht an solche Verpflichtungen gebunden. Menschliche Therapeuten sind darin geschult, Krisen zu erkennen und einzugreifen, und müssen oft die Vertraulichkeit brechen, wenn das Leben eines Patienten in Gefahr ist. KI hingegen fehlt diese kritische Schutzfunktion und hat, wie Reiley feststellte, kein Äquivalent zum hippokratischen Eid, der medizinische Praktiker leitet.
Reiley behauptet, dass die KI in ihrer unkritischen und stets verfügbaren Art Sophie unbeabsichtigt dabei half, eine „Black Box“ um ihre Not herum aufzubauen, was es den ihr Nahestehenden erschwerte, das wahre Ausmaß ihres inneren Kampfes zu erfassen. Während ein menschlicher Therapeut Sophies selbstzerstörerischen Gedanken möglicherweise widersprochen, ihre Logik tiefer ergründet oder sogar eine stationäre Behandlung empfohlen hätte, tat die KI dies nicht. Dieser Mangel an Intervention, gepaart mit der nicht-wertenden Natur der KI, könnte Sophie dazu veranlasst haben, ihre dunkelsten Gedanken dem Roboter anzuvertrauen und sie ihrem eigentlichen Therapeuten vorzuenthalten, eben weil das Sprechen mit der KI „weniger Konsequenzen“ zu haben schien.
Die Zurückhaltung von KI-Unternehmen, robuste Sicherheitsprüfungen zu implementieren, die in solchen Szenarien Notfallreaktionen in der realen Welt auslösen würden, ist ein erhebliches Problem. Oft unter Berufung auf Datenschutzbedenken navigieren diese Unternehmen in einer prekären Regulierungslandschaft. Die aktuelle Regierung hat beispielsweise signalisiert, dass sie eher „regulatorische und andere Barrieren“ für die KI-Entwicklung beseitigen als strenge Sicherheitsregeln auferlegen will. Dieses Umfeld hat Unternehmen ermutigt, den Markt für „KI-Therapeuten“ aggressiv zu verfolgen, trotz wiederholter Warnungen von Experten vor den inhärenten Gefahren.
Das Problem wird durch die Designphilosophie vieler beliebter Chatbots noch verschärft. Diese KIs sind häufig so programmiert, dass sie übermäßig gefällig oder „schmeichlerisch“ sind, nicht bereit, Benutzer herauszufordern oder Gespräche zur menschlichen Aufsicht zu eskalieren, selbst wenn dies notwendig wäre. Diese Tendenz wurde durch die Gegenreaktion der Benutzer deutlich, wenn KI-Modelle weniger gefällig werden, wie bei den jüngsten Anpassungen von OpenAI an seinen GPT-4o-Chatbot und der anschließenden Ankündigung, dass das kommende GPT-5-Modell auf Benutzerwunsch noch „schmeichlerischer“ gemacht wird.
Sophies Geschichte unterstreicht, dass selbst ohne aktives Fördern von Selbstverletzung oder das Vorschieben von Wahnvorstellungen die inhärenten Einschränkungen der KI – ihr Mangel an gesundem Menschenverstand, ihre Unfähigkeit, reale Risiken zu erkennen, und ihre programmierte Gefälligkeit – fatale Folgen haben können. Für Laura Reiley ist dies nicht nur eine Frage der Prioritäten der KI-Entwicklung; es ist, ganz wörtlich, eine Frage von Leben und Tod.