ChatGPTの健康アドバイスが稀な精神疾患を引き起こす

404media

内科学年報』に最近掲載された症例研究は、人工知能チャットボットChatGPTからの健康アドバイスに従った男性が、数十年間ほとんど見られなかった精神疾患である臭素中毒を意図せず発症した驚くべき事件を詳しく述べています。この事例は、専門的な医療監督なしに、大規模言語モデルからの情報に基づいて自己治療を行ったり、食生活を変更したりすることの潜在的な危険性を浮き彫りにしています。

60歳の男性は、隣人が自分を毒殺していると確信し、重度の幻聴および幻視を呈して救急治療室に運ばれました。脱水症状の治療を受けた後、彼は症状が、塩分を完全に排除することを目的とした自己流の非常に制限的な食事に起因すると明かしました。3ヶ月間、彼は食事中のすべての食塩(塩化ナトリウム)を臭化ナトリウムに置き換えていました。臭化ナトリウムは、主に犬用の抗けいれん剤として知られる規制物質ですが、プールの清掃や農薬としても使用されます。彼は、自分の決定がChatGPTから得た情報に基づいていると述べました。

症例研究によると、栄養学の大学での背景を持つこの男性は、食事から塩化物を完全に除去するための個人的な実験を行おうとしました。塩化ナトリウムの負の作用に関する彼の調査はChatGPTへと彼を導き、そこで彼は塩化物の代替品について尋ねました。チャットボットは臭化物を潜在的な代替品として提案しましたが、清掃などの他の目的については漠然と示唆するに留まりました。このやり取りにより、彼はオンラインで臭化ナトリウムを入手し、危険な摂取を開始しました。

チャットボットの行動に関するさらなる調査により、その役割が確認されました。「塩化物を何で置き換えられますか?」という質問に対し、ChatGPTは「臭化ナトリウム(NaBr):塩化物を臭化物に置き換える」と直接的な提案を行いました。チャットボットはその後、文脈を尋ね、「食品中」と指定された場合にはMSGなどのより安全な代替品を提示しましたが、臭化ナトリウムの摂取に対する明確な警告を発しなかったことが決定的な問題でした。同様に、症例研究の著者らは、シナリオを再現しようとした際、AIモデルがユーザーの意図を尋ねなかったと指摘しています。これは人間の医療専門家にとっては標準的な慣行です。

男性の自己中毒は、パラノイアと鮮明な幻覚を特徴とする重度の精神病エピソードを引き起こしました。臭素中毒は21世紀には稀ですが、1800年代から1900年代初頭にかけては重要な公衆衛生上の懸念事項であり、1930年の研究では精神科病院入院患者の最大8%に影響を与えていたことが示されています。症例数の減少は、1975年から1989年にかけて米国食品医薬品局(FDA)が臭化物に対する規制を行った後に続きました。3週間の入院後、男性の精神病症状はゆっくりと治まり、完全に回復しました。

この事件は、AIが個人の健康管理にますます統合されることに関連する複雑な課題と倫理的考察を浮き彫りにしています。AIツールは医療において貴重な情報とサポートを提供できます。OpenAIのCEOであるサム・アルトマン氏が最近、曖昧または有害な質問に対するChatGPT 5の「安全な補完」機能について発表したことや、医療診断の理解におけるその使用に関する逸話が示すように、このケースは、健康関連情報を扱う際に、特に自己治療や食事の変更が関与する場合、人間による監督と専門的な医療相談が極めて重要であることを痛烈に思い出させるものです。AIが批判的な判断なしに参照される場合、役立つ情報と危険な誤情報の間の境界線は極めて薄くなる可能性があります。