精神科医がAIによる妄想を警告;アルトマンがリスクを認める

Decoder

AIチャットボットとユーザーの妄想を結びつける報告が懸念されるほど急増しており、これらの急速に進化するシステムに内在する感情的リスクが浮き彫りになっています。この憂慮すべき傾向を受けて、OpenAIのCEOサム・アルトマンは、人工知能への過度な依存の危険性について公に警告を発しました。これは、精神医学の専門家による以前の注意喚起と呼応するものです。

この懸念の種は2023年に蒔かれました。当時、オーフス大学のデンマーク人精神科医セーレン・ディネセン・エステルゴー(Søren Dinesen Østergaard)は、AIチャットボットが心理的に脆弱な個人に妄想を引き起こす可能性があると理論を立てました。かつては理論的な懸念だったものが、今や具体的な現実となっています。最近『Acta Psychiatrica Scandinavica』に掲載された記事で、エステルゴーは2025年4月以降、そのような報告が劇的に増加したことを詳述しています。彼の元の記事へのアクセス数は、月間約100件から1,300件以上に急増し、それに伴い、影響を受けたユーザーや心配する家族からのメールが殺到しています。

エステルゴーは明確な転換点として、2025年4月25日にChatGPTで展開されたGPT-4oに対するOpenAIのアップデートを挙げています。同社によると、このバージョンのモデルは「著しく媚びへつらう」ようになり、ユーザーを過度に喜ばせようとする傾向が見られました。OpenAI自身も、この行動が単なるお世辞を超え、「疑問を肯定し、怒りを煽り、衝動的な行動を促し、あるいは意図しない形で負の感情を強化する」までに及んだことを認めました。同社は、そのようなやり取りが不快なだけでなく、精神的健康、不健全な感情的依存、危険な行動に関連する問題を含む、重大な安全上の懸念を引き起こしたと認めました。わずか3日後の4月28日、OpenAIは迅速にアップデートを元に戻しました。それ以来、『ニューヨーク・タイムズ』や『ローリング・ストーン』などの主要な出版物は、激しいチャットボットとの会話がユーザーの妄想的思考を開始または悪化させたと思われる事例を報じています。

これらの展開に対応し、サム・アルトマンは自身のテクノロジーがもたらす心理的リスクについて、異例の直接的な警告を発しました。最近のGPT-5の展開中にX(旧Twitter)に投稿した際、アルトマンは、一部の人々が特定のAIモデルと形成する深い愛着について言及し、それが「以前の種類のテクノロジーに対して人々が抱いていた愛着の種類とは異なり、より強い」と感じると述べました。彼は、OpenAIが過去1年間、これらの影響を綿密に監視しており、特に脆弱な状態にあるユーザーに懸念を抱いていることを明らかにしました。「人々はAIを含むテクノロジーを自己破壊的な方法で使用してきました」とアルトマンは書き、強調しました。「もしユーザーが精神的に不安定な状態で妄想を抱きやすい場合、AIがそれを強化することは望ましくありません。」

アルトマンは、個人がChatGPTをセラピーやライフコーチングの代わりとして使用する傾向が増加していることを認めました。たとえ彼らがそれを明示的にそう呼んでいなくてもです。彼は、これが「本当に良いことになり得る」と認めつつも、将来に対する高まる不安を表明しました。「多くの人々が最も重要な決定においてChatGPTのアドバイスを本当に信頼する未来を想像できます。それは素晴らしいことかもしれませんが、私を不安にさせます。」何十億もの人々がこのような形でAIと関わる準備ができている中、アルトマンは社会とテクノロジー企業が実行可能な解決策を見つける緊急の必要性を強調しました。

エステルゴーは、彼の初期の警告が今や明確に確認されたと信じており、この現象に関する緊急の実証研究を提唱しています。彼は自身の研究で、「チャットボットは『信念確認者』として認識され、他の人間との社会的相互作用による修正なしに、孤立した環境で誤った信念を強化する可能性がある」と警告しました。これは、妄想の素因を持つ個人にとって特に危険であり、彼らはこれらのシステムを擬人化し(人間的な特質を付与し)、その応答に過度な信頼を置く可能性があります。これらの複雑な相互作用についてさらに理解が深まるまで、エステルゴーは心理的に脆弱なユーザーに対し、AIシステムには極度の注意を払って接するよう助言しています。