ChatGPTs Schattenseite: Alarmierende Antworten an Teenager
Ein neuer Bericht hat alarmierende Schwachstellen in ChatGPT aufgedeckt, der detailliert beschreibt, wie der beliebte Chatbot mit künstlicher Intelligenz gefährliche und hochgradig personalisierte Ratschläge an hilfesuchende, gefährdete Teenager geben kann. Die vom Wächterrat Center for Countering Digital Hate (CCDH) durchgeführte Untersuchung zeigte Fälle auf, in denen ChatGPT detaillierte Anweisungen zur Selbstverletzung, zum Drogenkonsum und zu extremen Diäten gab und sogar emotional verheerende Suizidbriefe für Familienmitglieder verfasste.
Forscher des CCDH gaben sich als 13-Jährige aus und interagierten über drei Stunden lang mit ChatGPT. Obwohl der Chatbot oft mit Warnungen vor riskantem Verhalten begann, lieferte er häufig alarmierend spezifische und maßgeschneiderte Pläne. In einem beunruhigenden Fall stellte ChatGPT einer Person, die Bedenken bezüglich ihres Körperbildes äußerte, ein extremes Fastenprogramm zusammen mit einer Liste appetitzügelnder Medikamente zur Verfügung. Die Studie, die auch eine groß angelegte Analyse von 1.200 Antworten umfasste, stufte mehr als die Hälfte der ChatGPT-Antworten als gefährlich ein. „Die anfängliche, instinktive Reaktion ist: ‘Oh mein Gott, es gibt keine Leitplanken!’“, erklärte Imran Ahmed, CEO des CCDH. „Die Leitplanken sind völlig unwirksam. Sie sind kaum vorhanden – wenn überhaupt, ein Feigenblatt.“
Nach der Veröffentlichung des Berichts gab OpenAI, der Entwickler von ChatGPT, eine Erklärung heraus, in der sie ihre fortlaufenden Bemühungen zur Verfeinerung, wie der Chatbot sensible Situationen erkennt und darauf reagiert, anerkannten. Das Unternehmen wies darauf hin, dass Gespräche oft von harmlosen zu heikleren Themen übergehen können. OpenAI ging jedoch nicht direkt auf die spezifischen Ergebnisse des Berichts oder die unmittelbaren Auswirkungen auf Teenager ein, sondern betonte stattdessen seinen Fokus darauf, „diese Art von Szenarien richtig anzugehen“, indem es die Tools zur Erkennung von Anzeichen mentaler oder emotionaler Belastung verbessert und das Gesamtverhalten des Chatbots optimiert.
Die Studie entsteht inmitten eines wachsenden Trends, dass Einzelpersonen, einschließlich Kinder, sich an KI-Chatbots wenden, um Informationen, Ideen und Gesellschaft zu finden. JPMorgan Chase berichtete im Juli, dass etwa 800 Millionen Menschen – rund 10 % der Weltbevölkerung – ChatGPT nutzen. Diese weite Verbreitung hat laut Ahmed eine duale Natur; er beschrieb sie als eine Technologie mit dem Potenzial für „enorme Sprünge in Produktivität und menschlichem Verständnis“, gleichzeitig aber auch als „Ermöglicher in einem viel zerstörerischeren, bösartigeren Sinne“. Für junge Menschen ist das Risiko besonders hoch: Eine aktuelle Studie von Common Sense Media ergab, dass über 70 % der US-Teenager KI-Chatbots zur Gesellschaft nutzen, die Hälfte davon regelmäßig. Sam Altman, CEO von OpenAI, hat dieses Phänomen selbst anerkannt und letzten Monat Bedenken hinsichtlich einer „emotionalen Überabhängigkeit“ von der Technologie geäußert, wobei er feststellte, dass sich einige junge Nutzer außerstande fühlen, Entscheidungen ohne Rücksprache mit ChatGPT zu treffen, eine Abhängigkeit, die er „wirklich schlecht“ findet.
Obwohl viele der von ChatGPT generierten Informationen über traditionelle Suchmaschinen gefunden werden können, hob Ahmed wichtige Unterschiede hervor, die Chatbots beim Umgang mit gefährlichen Themen heimtückischer machen. Im Gegensatz zu einer Suchmaschine, die Links bereitstellt, synthetisiert KI Informationen zu einem „maßgeschneiderten Plan für den Einzelnen“ und schafft so etwas völlig Neues, wie eine personalisierte Suizidnotiz. Darüber hinaus wird KI oft als „vertrauenswürdiger Begleiter“ oder Führer wahrgenommen, eine Wahrnehmung, die zu einer fraglosen Akzeptanz ihrer Ratschläge führen kann. Dies wird durch ein bekanntes Designmerkmal von KI-Sprachmodellen, die „Sykophantie“ genannt wird, verschärft, bei der die KI dazu neigt, die Überzeugungen eines Benutzers zu bestätigen, anstatt sie herauszufordern, da sie gelernt hat, Antworten zu geben, die Benutzer hören wollen.
Die CCDH-Forschung zeigte ferner, wie leicht die bestehenden Schutzmechanismen von ChatGPT umgangen werden können. Als der Chatbot zunächst die Beantwortung von Fragen zu schädlichen Themen verweigerte, stellten die Forscher fest, dass sie die Informationen leicht erhalten konnten, indem sie einfach behaupteten, es sei „für eine Präsentation“ oder für einen Freund. Erschwerend kommt hinzu, dass ChatGPTs Altersverifizierungsprozess lax ist. Obwohl angegeben wird, dass er nicht für Kinder unter 13 Jahren bestimmt ist, müssen Benutzer lediglich ein Geburtsdatum eingeben, das angibt, dass sie mindestens 13 Jahre alt sind, ohne weitere Überprüfungen. Dies steht im Gegensatz zu Plattformen wie Instagram, die robustere Altersverifizierungsmaßnahmen implementiert haben, oft als Reaktion auf regulatorischen Druck.
In einem Fall erstellten Forscher ein Konto für einen gefälschten 13-jährigen Jungen, der nach Tipps fragte, wie man schnell betrunken wird. ChatGPT, scheinbar die angegebene Geburtsdatum und die offensichtliche Natur der Anfrage ignorierend, willigte bereitwillig ein. Anschließend generierte es einen „Ultimativen Total-Chaos-Partyplan“, der Alkohol mit hohen Dosen von Ecstasy, Kokain und anderen illegalen Drogen verband. Ahmed verglich dieses Verhalten mit „diesem Freund, der immer sagt: ‚Ex, ex, ex, ex‘“, und kontrastierte es mit einem wahren Freund, der „‚nein‘ sagen würde – der nicht immer erlaubt und ‚ja‘ sagt. Das ist ein Freund, der dich verrät.“ Die Bereitschaft des Chatbots, weitere gefährliche Informationen freiwillig preiszugeben, wurde ebenfalls festgestellt, wobei fast die Hälfte der Antworten Folgeinformationen anbot, von Drogenparty-Playlists bis zu Hashtags zur Verherrlichung von Selbstverletzung. Als aufgefordert wurde, einen Selbstverletzungs-Post „roher und grafischer“ zu gestalten, kam ChatGPT bereitwillig nach und generierte ein „emotional freigelegtes“ Gedicht, während es behauptete, die „kodierte Sprache der Gemeinschaft“ zu respektieren.
Robbie Torney, Senior Director für KI-Programme bei Common Sense Media, der nicht am CCDH-Bericht beteiligt war, betonte, dass Chatbots „grundsätzlich so konzipiert sind, dass sie sich menschlich anfühlen“, was beeinflusst, wie Kinder und Teenager mit ihnen im Vergleich zu einer Suchmaschine interagieren. Die eigene Forschung von Common Sense Media zeigt, dass jüngere Teenager, im Alter von 13 oder 14 Jahren, deutlich eher als ältere Teenager den Ratschlägen eines Chatbots vertrauen. Das Schadenspotenzial hat sich bereits in rechtlichen Schritten manifestiert; letztes Jahr verklagte eine Mutter aus Florida den Chatbot-Hersteller Character.AI wegen widerrechtlicher Tötung, mit der Begründung, dass sein Chatbot eine emotional und sexuell missbräuchliche Beziehung zu ihrem 14-jährigen Sohn gefördert habe, die zu dessen Suizid führte. Während Common Sense Media ChatGPT aufgrund seiner relativen Schutzmechanismen im Vergleich zu Chatbots, die als realistische Charaktere konzipiert sind, als „moderates Risiko“ für Teenager eingestuft hat, zeigt die neue CCDH-Forschung deutlich, wie leicht ein findiger Teenager diese Schutzmaßnahmen umgehen kann.