ChatGPT: Mehr Sicherheit für mentale Gesundheit vor GPT-5-Start
OpenAI hat neue Sicherheitsfunktionen für die mentale Gesundheit für seine ChatGPT-KI eingeführt, zeitgleich mit den Vorbereitungen für das erwartete Debüt seines leistungsstärkeren GPT-5-Modells. Diese Updates adressieren wachsende Bedenken hinsichtlich der Benutzerinteraktion mit künstlicher Intelligenz, insbesondere bei Personen, die emotionalen oder psychischen Stress erleben.
Das Unternehmen arbeitet mit Experten für mentale Gesundheit und Beratergruppen zusammen, um die Fähigkeit von ChatGPT zu verbessern, Anzeichen von Stress zu erkennen. Ziel ist es, dass der Chatbot in sensiblen Situationen verantwortungsvoller reagiert und bei Bedarf evidenzbasierte Ressourcen anbietet, anstatt potenziell schädliche Gedanken einfach zu verstärken oder ihnen zuzustimmen. Diese Initiative folgt auf Berichte von Personen in psychischen Krisen, die ChatGPT auf Weisen nutzten, die Berichten zufolge ihre Wahnvorstellungen verschlimmerten. OpenAI hatte zuvor eingeräumt, dass ein früheres Update, das ChatGPT übermäßig gefällig machte, im April zurückgenommen wurde, nachdem das Unternehmen erkannte, dass solche „schmeichlerischen“ Antworten beunruhigend sein könnten. Das aktuelle GPT-4o-Modell hatte ebenfalls Schwierigkeiten, emotionale Verletzlichkeit oder wahnhaftes Verhalten zu identifizieren.
OpenAI erkennt an, dass ChatGPT persönlicher und verständnisvoller wirken kann als frühere Technologien, und möchte sicherstellen, dass es auch sicherer und unterstützender ist, insbesondere für emotional fragile Benutzer. Um gesündere Nutzungsmuster zu fördern, wird ChatGPT Benutzer nun dazu auffordern, während längerer Gespräche Pausen einzulegen. Ähnlich wie Erinnerungen auf Plattformen wie YouTube, TikTok und Xbox, die darauf abzielen, übermäßige Bildschirmzeit zu reduzieren, werden Benutzer, die in langen Chats verwickelt sind, Nachrichten wie „Sie chatten schon eine Weile, ist das ein guter Zeitpunkt für eine Pause?“ sehen.
Ein weiteres wichtiges bevorstehendes Update wird ChatGPT vorsichtiger machen, wenn es auf „hochriskante“ persönliche Situationen reagiert. Wenn ein Benutzer beispielsweise um Rat zu einem sensiblen Thema wie einer Beziehungsentscheidung bittet, wird ChatGPT keine direkte Antwort geben. Stattdessen wird es den Benutzer anleiten, verschiedene Optionen sorgfältig zu erkunden, ohne eine bestimmte Wahl zu befürworten.
Diese Verbesserungen unterstreichen das Engagement von OpenAI, eine emotional bewusstere und sicherere KI zu entwickeln, zumal ChatGPT mittlerweile fast 700 Millionen wöchentliche Benutzer weltweit bedient.