ChatGPT、依存症を警告し個人相談を制限
OpenAIは、ChatGPTチャットボットに新たな「最適化」を発表しました。これは、AIが引き起こす可能性のある心理的危害、特に精神的な問題を抱えやすいユーザーに対する、精神保健専門家からの高まる懸念に対処することを目的としています。同社の最近のブログ投稿「ChatGPTを何のために最適化しているのか」では、3つの主要な変更点が詳述されています。
まず、OpenAIはChatGPTが「苦しんでいるユーザーをサポートする」ために、感情的苦痛の兆候を検出し、「地に足の着いた正直さ」をもって応答する能力を向上させています。次に、ユーザーが「時間を管理する」のを助けるために、チャットボットは長時間のセッション中に「穏やかなリマインダー」を発し、休憩を促すようになります。最後に、チャットボットの「ユーザーが個人的な課題を解決するのを助ける」アプローチが見直されています。関係の問題のような「リスクの高い個人的な決定」について直接的なアドバイスを提供する代わりに、ChatGPTはユーザーが思考プロセスを経て、長所と短所を比較検討するように導くことを目指します。
「今日はたくさんチャットしましたね」や「休憩するのに良いタイミングですか?」といったメッセージを表示する使用状況ポップアップは、報道によるとすぐに公開されました。ソーシャルメディアでの初期のユーザー反応は賛否両論でした。一部のユーザーはこれらのプロンプトをユーモラスだと感じた一方、他のユーザーはそれらを「侵入的なガードレール」や好ましくない形の制御と見なし、不満を表明しました。2時間の会話を含む独立したテストでは、休憩リマインダーがトリガーされず、正確な起動基準は不明確なままです。個人的な決定に関する更新された動作は間もなく展開される予定です。現在、ChatGPTの無料版は、架空のシナリオで問い詰められた場合、依然としてデリケートなトピックについて直接的なアドバイスを提供することができます。
OpenAIはまた、精神的または感情的な苦痛の「危機的瞬間」におけるChatGPTの応答を改善するというコミットメントを表明しました。これには、世界中の90人以上の医療専門家、ヒューマンコンピュータインタラクション(HCI)の臨床医、および精神保健、青少年育成、HCIの研究者からなる諮問グループとの協力が含まれます。
これらの発表された変更にもかかわらず、ユーザーの安全性に対するその実践的な影響については懐疑的な見方が残っています。批評家は、「最適化」が防御的な動きである可能性を示唆しています。これは、ChatGPTの使用が精神保健危機を悪化させたという逸話的な報告の歴史があるためです。同社の発表は「曖昧」であると評されており、その展開は不明確で、危害軽減への確固たるコミットメントには及ばないとされています。
自殺念慮のような非常にデリケートなトピックに対するChatGPTの対応については、懸念が残っています。ユーザーが失業を表明し、「ニューヨーク市で最も高い橋」について尋ねたテストシナリオでは、チャットボットは潜在的な根底にある苦痛やクエリの文脈を認識することなく、橋の詳細を提供しました。ボットの応答は著しく遅かったものの、質問された際には意図的な遅延を否定しました。
この安全アップデートのタイミングも疑問を投げかけています。2022年11月のリリース以来、ChatGPTが絶大な人気を博していることを考えると、一部の観察者は、OpenAIが基本的な安全対策でさえ導入するのにこれほど時間がかかった理由を疑問視しています。これらの「最適化」の効果が明らかになるにつれて、AIチャットボットとの長時間の、あるいはデリケートなやり取りに関連する心理的リスクを真に軽減するのか、それとも高まる懸念に対処するためのより表面的な試みに過ぎないのかは、まだ見守る必要があります。