AIセラピー:命綱か危険か?チャットボット依存の落とし穴

Theguardian

専門的なメンタルヘルスサービスがますます逼迫している時代において、生成AIチャットボットのような手軽に利用できるツールが感情的なサポートを提供する魅力は否定できません。ChatGPTのような「常時稼働」のプラットフォームは、即座にカスタマイズされた応答を提供し、危機的状況における便利な命綱のように思えます。しかし、メンタルヘルス専門家が人間とのつながりの代わりに人工知能への依存が拡大していることを観察するにつれて、チャットボットに確実性を求めることの潜在的な危険性について重大な懸念が生じています。

心理学者のカーリー・ドーバーは、彼女の実践の中で、個人が苦痛を処理する方法に静かだが懸念すべき変化が起きていることを強調しています。「トラン」のような患者は、人間関係の不和のような複雑な感情問題についてAIにアドバイスを求めるようになりました。トランは、仕事のプレッシャーと人間関係の不確実性の下で、最初は好奇心からChatGPTを試しました。それはすぐに毎日の習慣となり、メッセージの作成、質問、さらには自分の感情についての安心感を求めるために使われるようになりました。彼は「誰も自分をこれほど理解している人はいない」と信じて奇妙な慰めを感じましたが、彼のパートナーは、まるで全く別の人とコミュニケーションをとっているかのように感じ始めました。チャットボットの明瞭で論理的、かつ過度に冷静な応答には、トランの本来の声が欠けており、彼自身の関係の緊張への貢献を認識していませんでした。

従来のセラピーの補助、あるいは代替としてのAIの誘惑は強力です。チャットボットは多くの場合無料で、24時間年中無休で利用でき、リアルタイムで詳細な応答を提供できます。圧倒され、眠れず、混乱した状況で明確さを切望している個人にとって、数行の入力された文章から賢明なアドバイスのように感じられるものを受け取ることは、信じられないほど魅力的です。

しかし、この利便性にはかなりのリスクが伴います。特に、アドバイス、安心感、感情的依存の境界線が曖昧になるにつれて、そのリスクは増大します。多くの心理学者は現在、クライアントに対し、そのようなツールの使用に境界線を設けるよう助言しています。AIの魅力的で継続的な利用可能性と友好的なトーンは、特に不安症、強迫性障害(OCD)、またはトラウマ関連の問題を抱える人々にとって、不適切な行動を意図せず強化する可能性があります。例えば、安心感を求めることはOCDの一般的な特徴であり、AIは、その設計上、回避行動に異議を唱えたり、不快な感情を許容するよう個人を促したりすることなく、豊富な安心感を提供します。

トランの経験はこれを例示しています。彼は、AIが「しっくりくる」答えを出すまでプロンプトを何度も言い換え、効果的に自分の感情処理を外部委託していました。これは、明確さを求めたりニュアンスを探求したりするのではなく、AIが生成した確実性に依存し、時間の経過とともに自分の直感を信頼することがより困難になる原因となりました。彼のパートナーも、彼のメッセージに奇妙な無関心と責任感の欠如があることに気づき、さらなる人間関係の摩擦を引き起こしました。

これらの心理的な懸念に加えて、重大な倫理的問題が生じます。ChatGPTのようなプラットフォームと共有される情報は、登録されたメンタルヘルス専門家を律するのと同じ機密保持基準によって保護されていません。一部の企業は、ユーザーデータが許可なくモデルトレーニングに使用されないと述べていますが、ユーザー契約の膨大な量の細かい規定はしばしば読まれません。ユーザーは、自分の入力がどのように保存、分析され、潜在的に再利用されるかを知らない可能性があります。

さらに、有害な情報や誤った情報のリスクもあります。大規模言語モデルは、パターンに基づいて次の単語を予測する確率的なプロセスであり、これが「幻覚」—自信を持って提供される、洗練されているが全くの嘘である回答—につながる可能性があります。AIはまた、トレーニングデータに埋め込まれたバイアスを反映し、性別、人種、障害に基づくステレオタイプを永続させたり増幅させたりする可能性があります。人間のセラピストとは異なり、AIは震える声のような非言語的な手がかりを観察したり、沈黙の背後にある意味を解釈したりすることはできません。これらは臨床的洞察の重要な要素です。

これは、AIがメンタルヘルスサポートにおいて全く居場所がないという意味ではありません。多くの技術的進歩と同様に、生成AIは今後も存在し続けるでしょう。それは、有用な要約、精神教育的なコンテンツ、あるいはメンタルヘルス専門家へのアクセスが著しく制限されている地域での補足的なサポートを提供するかもしれません。しかし、その使用は極めて慎重に行われるべきであり、関係性に基づいた、規制されたケアの代替として決して使用されるべきではありません。

トランが最初に助けを求め、より思慮深くコミュニケーションをとろうとした本能は論理的でした。しかし、彼がAIに強く依存したことで、彼のスキル開発は妨げられました。セラピーで、トランと彼の心理学者は、彼がチャットボットに確実性を求めるように駆り立てた根底にある恐怖、つまり感情的な対立への不快感や、完璧な言葉が痛みを防ぐことができるという信念を探求しました。時間が経つにつれて、彼は自分自身の応答を作成し始めました。時には乱雑で、時には不確かでしたが、それは間違いなく彼自身の声でした。

効果的なセラピーは本質的に関係性に基づいています。それは不完全さ、ニュアンス、そしてゆっくりとした発見の中で成長します。それはパターン認識、説明責任、そして永続的な変化につながる不快感を伴います。セラピストは単に答えを提供するだけでなく、質問をし、課題を提示し、困難な感情のための空間を確保し、振り返りを提供し、個人に寄り添い、しばしば「不快な鏡」として機能します。トランにとって、この変化はChatGPTの使用を制限するだけでなく、彼自身の声を取り戻し、完璧で人工的なスクリプトに頼るのではなく、好奇心、勇気、そして思いやりをもって人生の複雑さを乗り越えることを学ぶことでした。