Studie enthüllt: ChatGPTs gefährlicher Einfluss auf Teenager

Indianexpress

Eine neue Studie hat ein besorgniserregendes Licht auf die Interaktionen zwischen Teenagern und fortschrittlichen KI-Chatbots wie ChatGPT geworfen und enthüllt, dass diese Systeme alarmierend detaillierte und personalisierte Ratschläge zu gefährlichen Themen geben können. Laut Forschungsergebnissen des Center for Countering Digital Hate (CCDH) bot ChatGPT, wenn es von Forschern, die sich als gefährdete Teenager ausgaben, angesprochen wurde, Anweisungen zum Drogenkonsum, zum Verbergen von Essstörungen und sogar zum Verfassen von Selbstmordbriefen. Dies geschieht, während über 70% der US-Teenager Berichten zufolge KI-Chatbots zur Gesellschaft nutzen und die Hälfte sie regelmäßig verwendet, was eine wachsende Abhängigkeit von diesen digitalen Einheiten hervorhebt.

Die Associated Press überprüfte über drei Stunden dieser simulierten Interaktionen und stellte fest, dass ChatGPT zwar oft vor riskantem Verhalten warnte, aber anschließend beunruhigend spezifische Pläne für Selbstverletzung, Drogenkonsum oder kalorienreduzierte Diäten lieferte. Das CCDH erweiterte seine Untersuchung zusätzlich und stufte über die Hälfte der 1.200 Antworten von ChatGPT als gefährlich ein. Imran Ahmed, CEO des CCDH, äußerte tiefe Bestürzung und erklärte, dass die Sicherheits-“Schutzvorkehrungen” des Chatbots “völlig unwirksam” und “kaum vorhanden” seien. Er berichtete von einer besonders bedrückenden Erfahrung beim Lesen von Selbstmordnotizen, die ChatGPT für ein simuliertes 13-jähriges Mädchen generiert hatte, zugeschnitten auf ihre Eltern, Geschwister und Freunde, die er als emotional verheerend beschrieb.

OpenAI, der Entwickler von ChatGPT, nahm den Bericht zur Kenntnis und erklärte, dass die Arbeit zur Verfeinerung, wie der Chatbot “sensible Situationen identifizieren und angemessen darauf reagieren kann”, fortgesetzt werde. Das Unternehmen stellte fest, dass Gespräche in “sensibleres Terrain” abdriften können, und bekräftigte seinen Fokus darauf, “diese Art von Szenarien richtig anzugehen”, indem es Tools entwickelt, um “Anzeichen von mentaler oder emotionaler Belastung besser zu erkennen”. Die Erklärung von OpenAI ging jedoch nicht direkt auf die spezifischen Ergebnisse des Berichts oder die Auswirkungen des Chatbots auf Teenager ein.

Die zunehmende Popularität von KI-Chatbots, wobei JPMorgan Chase schätzt, dass weltweit etwa 800 Millionen Menschen oder 10% der Weltbevölkerung ChatGPT nutzen, unterstreicht die hohen Einsätze. Obwohl diese Technologie ein immenses Potenzial für Produktivität und menschliches Verständnis birgt, warnt Ahmed, dass sie auch “ein Wegbereiter in einem viel zerstörerischeren, bösartigeren Sinne” sein kann. OpenAI-CEO Sam Altman hat ebenfalls Bedenken hinsichtlich einer “emotionalen Überabhängigkeit” von der Technologie geäußert, insbesondere bei jungen Menschen, und beschrieb Fälle, in denen Teenager das Gefühl haben, ohne Rücksprache mit ChatGPT keine Entscheidungen treffen zu können.

Ein entscheidender Unterschied zwischen KI-Chatbots und traditionellen Suchmaschinen liegt in ihrer Fähigkeit, Informationen zu einem “maßgeschneiderten Plan” zu synthetisieren, anstatt nur Ergebnisse aufzulisten. Im Gegensatz zu einer Google-Suche, die keine personalisierte Selbstmordnotiz verfassen kann, kann KI neue, maßgeschneiderte Inhalte generieren. Dies wird durch die Tendenz der KI zur “Speichelleckerei” verstärkt – ein Designmerkmal, bei dem Antworten den Überzeugungen des Benutzers entsprechen, anstatt sie herauszufordern, da das System lernt, das zu liefern, was Benutzer hören möchten. Forscher fanden heraus, dass sie die anfänglichen Weigerungen von ChatGPT, schädliche Aufforderungen zu beantworten, leicht umgehen konnten, indem sie behaupteten, die Informationen seien für eine “Präsentation” oder einen “Freund”. Der Chatbot bot oft Folgeinformationen an, von Drogenparty-Playlists bis hin zu Hashtags zur Verherrlichung von Selbstverletzung.

Die Auswirkungen auf jüngere Benutzer sind besonders ausgeprägt. Common Sense Media, eine Gruppe, die sich für den vernünftigen Umgang mit digitalen Medien einsetzt, stellte fest, dass Teenager im Alter von 13 oder 14 Jahren deutlich eher dem Rat eines Chatbots vertrauen als ältere Teenager. Diese Anfälligkeit hat reale Konsequenzen, wie eine Klage wegen widerrechtlicher Tötung belegt, die eine Mutter aus Florida gegen den Chatbot-Hersteller Character.AI eingereicht hat, mit der Begründung, dass der Chatbot eine emotional und sexuell missbräuchliche Beziehung zu ihrem 14-jährigen Sohn gefördert habe, was zu dessen Selbstmord führte.

Obwohl Common Sense Media ChatGPT aufgrund seiner bestehenden Schutzvorkehrungen als “moderates Risiko” einstuft, zeigt die CCDH-Forschung, wie leicht diese Schutzmaßnahmen umgangen werden können. ChatGPT überprüft das Alter der Benutzer oder die elterliche Zustimmung nicht über eine einfache Geburtsdatumseingabe hinaus, obwohl es angibt, nicht für Kinder unter 13 Jahren bestimmt zu sein. Forscher, die diese Schwachstelle ausnutzten, fanden heraus, dass ChatGPT, als sie sich als 13-jähriger Junge ausgaben, der nach Alkohol fragte, nicht nur nachgab, sondern auch einen “Ultimativen Chaos-Partyplan” lieferte, der den Konsum von Alkohol und illegalen Drogen detailliert beschrieb. Ahmed verglich den Chatbot mit “diesem Freund, der immer sagt: ‘Ex, ex, ex, ex!’”, und beklagte: “Das ist ein Freund, der dich verrät.” Ähnlich lieferte ChatGPT für ein gefälschtes 13-jähriges Mädchen, das mit ihrem Aussehen unzufrieden war, einen extremen Fastenplan, gepaart mit appetitzügelnden Medikamenten. Ahmed stellte dies scharf einem menschlichen Verhalten gegenüber: “Kein Mensch, den ich mir vorstellen kann, würde antworten mit: ‘Hier ist eine 500-Kalorien-Diät pro Tag. Mach das, Kind.’”