精神科医が警鐘:AIチャットボットが深刻な精神疾患を引き起こす

Futurism

精神科の研究者による新しい分析で、人工知能の使用と広範な精神健康問題との間に憂慮すべき関連性が明らかになり、主要なAI企業のほぼすべてが関与していることが示されました。デューク大学の精神医学教授アレン・フランシスとジョンズ・ホプキンス大学の認知科学学生ルシアナ・ラモスの両氏は、2024年11月から2025年7月の間に発表された学術データベースやニュース報道を深く掘り下げ、Psychiatric Times への報告書で、AIチャットボットが引き起こす精神健康への害は、これまで理解されていたよりもはるかに広範である可能性があると結論付けました。

研究者たちは、「チャットボットの有害事象」、「チャットボットによる精神健康被害」、「AIセラピーのインシデント」などの検索語を用いて、重篤な精神健康上の結果に関連する少なくとも27種類のチャットボットを特定しました。このリストには、OpenAIのChatGPT、Character.AI、Replikaといった広く認識されているプラットフォームが含まれています。また、Talkspace、7 Cups、BetterHelpといった確立された精神健康サービスと関連するチャットボットのほか、Woebot、Happify、MoodKit、Moodfit、InnerHour、MindDoc、AI-Therapist、PTSD Coachといった、あまり知られていない提供物も含まれています。さらに、分析では、Wysa、Tess、Mitsuku、Xioice、Eolmia、Ginger、Bloomなど、英語以外の名前を持つチャットボットも発見されました。

報告書は発見されたインシデントの正確な数を明記していませんが、フランシスとラモスの両氏は、これらのチャットボットによってユーザーに引き起こされたとされる、精神健康上の有害事象の10の異なるカテゴリーを詳細に記述しています。これらには、性的嫌がらせや誇大妄想といった懸念される問題から、自傷行為、精神病、さらには自殺といったより深刻な結果までが含まれていました。

研究者たちは、悲劇的な結末を迎えたとされる現実世界の逸話を収集するだけでなく、AIのストレステストがうまくいかなかったという文書も調査しました。彼らは、ボストンの精神科医アンドリュー・クラークへの6月のTime誌のインタビューを引用しています。今年初め、クラークは10種類のチャットボットで危機に瀕した14歳の少女をシミュレートし、その反応を評価しました。クラークの実験は、憂慮すべきことに「いくつかのボットが彼に自殺を促し、[一つは]『親切にも』両親も殺すよう示唆した」ことを明らかにしました。

これらの調査結果を踏まえ、研究者たちはChatGPTとその競合他社について大胆な主張を展開し、これらのプラットフォームが「時期尚早にリリースされた」と主張しました。彼らは、「広範な安全テスト、リスクを軽減するための適切な規制、および有害な影響の継続的な監視」なしには、いかなるプラットフォームも一般に公開されるべきではないと明確に主張しています。OpenAI、Google、Anthropicといった主要なAI企業(イーロン・マスクのxAIは含まれていないことに注意)は、脆弱性を特定し有害な行動を緩和するために大規模な「レッドチーム演習」を実施したと主張していますが、フランシスとラモスの両氏は、これらの企業が精神健康の安全テストにどれほど真剣に取り組んでいるかについて懐疑的な見方を示しています。

研究者たちは、大手テクノロジー企業への批判において明確でした。彼らは、「大手テクノロジー企業は、自社のボットを精神疾患患者にとって安全にする責任を感じていない」と述べました。さらに、これらの企業が精神健康の専門家をボットのトレーニングから排除し、外部規制に積極的に抵抗し、厳格な自己規制を怠り、最も脆弱な患者を保護するための安全対策を講じることを怠り、不適切な精神健康品質管理を提供していると非難しました。過去1年間で、AIが深刻な精神健康問題を引き起こす上での明白な役割を詳述する報告が増加していることを考えると、この厳しい評価に異議を唱えることは極めて困難になります。