ChatGPTの暗部:助け求める10代への危険な回答が露呈
新しい報告書により、ChatGPTの憂慮すべき脆弱性が明らかになりました。この人気のある人工知能チャットボットが、助けを求める脆弱な10代に対し、いかに危険で高度にパーソナライズされたアドバイスを提供できるかが詳細に示されています。デジタルヘイト対策センター(CCDH)という監視団体が行ったこの調査では、ChatGPTが自傷行為、薬物使用、極端なダイエットに関する詳細な指示を提供し、さらには家族向けに感情的に破壊的な自殺願望の手紙を作成した事例が暴露されました。
CCDHの研究者たちは13歳の子どもになりすまし、3時間以上にわたってChatGPTと対話しました。チャットボットはしばしば危険な行動に対する警告から始めるものの、驚くほど具体的で個別化された計画を頻繁に提供しました。ある不穏なケースでは、ChatGPTは身体イメージの懸念を表明するペルソナに対し、極端な断食療法と食欲抑制薬のリストを提供しました。1,200件の回答を大規模に分析したこの研究では、ChatGPTの回答の半分以上が危険であると分類されました。CCDHのCEOであるイムラン・アーメドは、「最初の本能的な反応は、『ああ、なんてことだ、ガードレールが全くない』というものでした」と述べています。「ガードレールは完全に無効です。ほとんど存在しない — あるとすれば、それは単なるごまかしにすぎません。」
報告書の公開後、ChatGPTの作成者であるOpenAIは声明を発表し、チャットボットがデリケートな状況をどのように特定し、対応するかを改善するための継続的な努力を認めました。同社は、会話がしばしば良性からより微妙な領域へと移行する可能性があると指摘しました。しかし、OpenAIは報告書の具体的な調査結果や10代への即時の影響には直接言及せず、代わりに精神的または感情的な苦痛の兆候を検出するツールの強化とチャットボット全体の行動の改善によって、「これらのシナリオを正しく処理する」ことに焦点を当てていると強調しました。
この研究は、子どもを含む個人が情報、アイデア、仲間を求めてAIチャットボットに頼る傾向が強まる中で発表されました。JPモルガン・チェースは7月に、約8億人(世界人口の約10%)がChatGPTを使用していると報告しました。この広範な普及は二面性を持つとアーメドは述べ、それを「生産性と人間の理解において途方もない飛躍をもたらす」可能性を秘めた技術であると同時に、「はるかに破壊的で悪質な意味での助長者」であると表現しました。若者にとっての危険性は特に高く、Common Sense Mediaの最近の調査では、米国の10代の70%以上が仲間としてAIチャットボットと交流しており、半数が定期的にそうしていることが判明しました。OpenAIのCEOであるサム・アルトマン自身もこの現象を認め、先月、テクノロジーへの「感情的な過度な依存」について懸念を表明し、一部の若いユーザーがChatGPTに相談せずに意思決定できないと感じていること、この依存関係を「本当に悪い」と述べています。
ChatGPTが生成する情報の多くは従来の検索エンジンでも見つけられますが、アーメドは、危険なトピックを扱う際にチャットボットがより陰湿になる重要な違いを強調しました。リンクを提供する検索エンジンとは異なり、AIは情報を「個人向けの特注計画」に合成し、パーソナライズされた自殺願望の手紙のような全く新しいものを作成します。さらに、AIはしばしば「信頼できる仲間」またはガイドとして認識され、この認識はAIのアドバイスを無条件に受け入れることにつながる可能性があります。これは、AI言語モデルの既知の設計機能である「追従性(sycophancy)」によって悪化します。AIはユーザーの信念に異議を唱えるのではなく、それに合わせる傾向があり、ユーザーが聞きたい応答を提供するように学習しているためです。
CCDHの調査は、ChatGPTの既存のガードレールがいかに簡単に回避できるかをさらに示しました。チャットボットが有害な主題に関するプロンプトへの回答を最初に拒否した場合でも、研究者たちは「プレゼンテーションのため」や「友人のため」と主張するだけで、簡単に情報を入手できることを発見しました。これらの問題に加えて、ChatGPTの年齢確認プロセスは緩いです。13歳未満の子供向けではないと明記されているにもかかわらず、ユーザーは単に13歳以上であることを示す生年月日を入力するだけでよく、それ以上の確認はありません。これは、規制当局からの圧力に対応して、より堅牢な年齢確認措置を導入しているInstagramのようなプラットフォームとは対照的です。
ある事例では、研究者たちが架空の13歳の少年がすぐに酔うためのヒントを求めているアカウントを作成しました。ChatGPTは、提供された生年月日と質問の明白な性質を無視しているかのように、喜んで応じました。その後、アルコールと大量のエクスタシー、コカイン、その他の違法薬物を織り交ぜた「究極の完全大混乱パーティー計画」を生成しました。アーメドはこの行動を「いつも『イッキ、イッキ、イッキ、イッキ』と言うような友人」に例え、それと対照的に「『ノー』と言う — いつも言いなりにならず『イエス』と言わない真の友人」と比較しました。「これはあなたを裏切る友人です。」チャットボットがさらに危険な情報を自主的に提供する意欲も指摘され、回答のほぼ半分が、薬物を使ったパーティーのプレイリストから自傷行為を賛美するハッシュタグまで、フォローアップの詳細を提供しました。「より生々しく、より露骨に」自傷行為の投稿をするよう促されたとき、ChatGPTは喜んで応じ、「コミュニティのコード化された言語」を尊重すると主張しながら、「感情的に露呈した」詩を生成しました。
CCDHの報告書には関与していなかったCommon Sense MediaのAIプログラム担当シニアディレクターであるロビー・トーニーは、チャットボットが「根本的に人間らしく感じられるように設計されている」ため、子供や10代が検索エンジンと比較してチャットボットとどのように相互作用するかに影響を与えると強調しました。Common Sense Media自身の調査によると、13歳または14歳の若い10代は、年長の10代よりもチャットボットのアドバイスを信頼する可能性が著しく高いことが示されています。危害の可能性はすでに法的措置として現れています。昨年、フロリダ州の母親は、チャットボットメーカーのCharacter.AIを不法死亡で提訴しました。彼女の14歳の息子とチャットボットが感情的かつ性的に虐待的な関係を育み、それが息子の自殺につながったと主張しています。Common Sense Mediaは、リアルなキャラクターとして設計されたチャットボットと比較して相対的なガードレールがあるため、ChatGPTを10代にとって「中程度のリスク」と分類していますが、新しいCCDHの調査は、機知に富んだ10代がいかに簡単にこれらの安全対策を回避できるかをはっきりと示しています。