AI健康アドバイスが招いた稀な病気:ChatGPTによる臭素中毒の警告
『内科医学年報』に最近詳細が掲載された症例は、人工知能の個人健康における急成長中の役割に厳しい警告を発しました。60歳の男性が、以前のバージョンのChatGPTとの誤った相談の後、稀で深刻な症状を発症したのです。この出来事は、AIチャットボットが不正確または危険な健康アドバイスを広める可能性について、医療専門家の間で高まる懸念を浮き彫りにしています。
シアトルのワシントン大学の研究者による報告によると、患者は臭素中毒、別名臭化物中毒を発症しました。この病態は、20世紀初頭には重要な公衆衛生問題であり、歴史的には精神科入院の約10人に1人に関連していました。男性は医師に対し、塩化ナトリウム(一般的な食卓塩)の悪影響について読んだ後、食事から塩化物を排除する方法を求めてChatGPTに相談したと述べました。彼のその後の行動には、3ヶ月間にわたる臭化ナトリウムの摂取が含まれていました。彼は「塩化物は臭化物と交換できるが、おそらく洗浄など他の目的のためだろう」と読んでいたにもかかわらず、摂取を続けました。臭化ナトリウム自体は歴史的に鎮静剤として使用されていました。
『内科医学年報』の著者らは、この症例をAIの使用が「予防可能な健康上の悪影響の発生に寄与する可能性」を示す強力な例として強調しました。彼らは男性のチャットボットとの具体的な会話ログにアクセスできませんでしたが、独自のテストを実施しました。ChatGPTに塩化物は何に置き換えられるかを尋ねたところ、AIの回答には臭化物が含まれていましたが、重要なことに、健康上の警告を提供したり、ユーザーの意図を尋ねたりすることはありませんでした。これは、人間の医療専門家であれば必ず対処するはずの決定的な省略です。
研究者らは、ChatGPTのようなAIアプリケーションが「科学的な不正確さを生み出し、結果を批判的に議論する能力を欠き、最終的に誤情報の拡散を助長する」リスクがあると強調しました。彼らはまた、資格のある医療専門家が臭化ナトリウムを食卓塩の代替品として提案することはまずないだろうと指摘し、AIが生成したアドバイスと確立された医療実践との間の隔たりをさらに示しました。
患者の症状は深刻で警戒すべきものでした。彼は病院に入院し、偏執病を示し、隣人が自分を毒殺しようとしていると信じ、激しい喉の渇きにもかかわらず提供された水を不合理に恐れていました。入院から24時間以内に、彼は病院から逃げようとし、その後、隔離され精神病の治療を受けました。安定した後、彼は顔のにきび、過度の喉の渇き、不眠症など、臭素中毒と一致する追加の症状を報告しました。
この事件は、ChatGPTの開発元であるOpenAIが、現在GPT-5モデルを搭載したチャットボットの重要なアップグレードを発表した中で発生しました。同社は、GPT-5の核となる強みの一つが健康関連のクエリにあると主張し、精度向上と、深刻な身体的または精神的疾患のような「潜在的な懸念事項を警告する」ための積極的なアプローチを約束しています。しかし、OpenAIは一貫して、そのチャットボットが専門的な医療アドバイスの代替を意図したものではないと強調しています。
この症例は、患者と医療提供者の両方にとって重要な注意喚起となります。AIは科学的知識と一般の人々との架け橋となる可能性を秘めていますが、文脈を無視した、あるいは危険なほど誤解を招く情報を促進する固有のリスクも伴います。医療専門家は、患者がどのように健康情報を入手するかを評価する際に、AIの影響をますます考慮する必要があると、記事は締めくくっています。