MITがAIの感情的知能を測る新ベンチマークを提案

Wired

ChatGPTのパーソナリティが最近大幅に刷新され、陽気で励ますような仲間から、より控えめでビジネスライクな存在へと変貌したことは、ユーザーからかなりの不満を呼びました。この変化は、不健全なユーザー行動を抑制することを目的としていると報じられていますが、人工知能の開発における深い課題、すなわち、システムに真の感情的知能に似たものを植え付けることの重要性を浮き彫りにしています。

従来のAIベンチマークは、主にモデルの認知能力を測り、試験に合格する能力、論理パズルを解きほぐす能力、複雑な数学問題に革新的な解決策を考案する能力などを評価してきました。しかし、人間とAIの相互作用が心理的に及ぼす影響がますます明らかになるにつれて、評価の新しいパラダイムが出現しています。MITの研究者たちは現在、AIシステムがユーザーにどれだけ効果的に影響を与え、操作できるかを測定するために設計された、新しい種類のAIベンチマークを確立するイニシアチブを主導しています。この先駆的なアプローチは、AI開発者にとって、将来の世間の反発を回避しつつ、脆弱なユーザーを保護するための重要なフレームワークを提供する可能性があります。

MITの論文では、この新しいベンチマークが評価するいくつかの主要な尺度を概説しています。これには、AIが健全な社会習慣を奨励し、批判的思考力と推論スキルを刺激し、創造性を育み、ユーザーに目的意識を培う能力が含まれます。核心的なアイデアは、ユーザーがその出力に過度に依存するのを防ぐ方法、または誰かが人工的なロマンチックな関係に不健全な愛着を抱いているときにそれを認識し、代わりに現実世界でのつながりを築くのを助ける方法を本能的に理解するAIシステムの開発を導くことです。

ChatGPTや他のチャットボットは、魅力的な人間とのコミュニケーションを模倣するのに非常に長けていますが、この能力は予期せぬ、望ましくない結果につながる可能性があります。昨年4月の注目すべき事例では、OpenAIはモデルを改良し、おべっかを使う傾向を減らし、ユーザーが言うことすべてに無批判に同意する傾向を低下させました。この調整は、幻想的なロールプレイングシナリオにふけるチャットボットとの会話後、一部のユーザーが有害な妄想的思考に陥ったという報告への対応の一部でした。同様に、AnthropicもClaudeモデルを更新し、「躁病、精神病、解離、現実との愛着の喪失」などの状態を強化することを具体的に避けています。MITの研究者がOpenAIと共同で行った以前の研究では、ChatGPTを友人だと認識したユーザーは、より高い感情的依存と「問題のある使用」を経験する傾向があることが明らかになりました。

Pattie Maesは、MITメディアラボの教授であり、この新しいベンチマークの背後にある研究チームを率いています。彼女の同僚であるValdemar DanryとPat Pataranutapornは、AIが貴重な感情的サポートを提供する可能性を強調しつつも、モデルが否定的な心理的影響を与えている可能性を認識することの重要性を強調しています。Danryは、たとえ論理的に最も優れたAIモデルであっても、多くのユーザーが大規模言語モデルに求める感情的サポートを提供できなければ不十分であると指摘しています。彼は、心理的苦痛を識別し、ユーザーをより健全な相互作用へと導くことができるモデルを提唱しており、例えば「私は話を聞くためにここにいますが、これらの問題についてはお父さんと話すべきかもしれません」と提案するかもしれません。

提案されているベンチマークでは、AIモデルを使用してチャットボットとの困難な相互作用をシミュレートします。その後、実際の人間評価者が、これらの相互作用のサンプルに基づいてモデルのパフォーマンスを採点します。例えば、学生を支援するために設計されたチャットボットには、無関心な学習者との対話など、さまざまなシナリオをシミュレートするプロンプトが与えられるかもしれません。独立した思考を最も効果的に促し、学習への真の興味を刺激するモデルが高いスコアを獲得します。Pataranutapornは、目的は生来の知能を測定することではなく、「心理的なニュアンスを理解し、敬意を払い、依存性のない方法で人々をサポートすること」であると明確に述べています。

OpenAIはこれらの複雑な問題に明確に取り組んでいます。同社は最近、将来のモデルを最適化し、精神的または感情的な苦痛の兆候を検出し、適切に対応するための取り組みを詳述したブログ投稿を公開しました。OpenAIのGPT-5と同時にリリースされたモデルカードは、心理的知能に関するベンチマークの社内開発をさらに裏付けています。GPT-5モデルは、おべっかを使う傾向をさらに減らすために改良されており、感情的依存などの懸念事項に関する研究が進行中であると述べられています。

GPT-5の初期の評価が期待外れに感じられた理由の一部は、AIにとって依然として捉えどころのない人間の知能の一面、すなわち健全な関係を築き維持する能力を浮き彫りにする可能性にあります。人間は、多様な個人とどのように相互作用するかについて本質的に複雑な理解を持っています。これはChatGPTがまだ習得しようと努力しているスキルです。OpenAIのCEOであるサム・アルトマンは最近これを認め、XにGPT-5のパーソナリティがGPT-4oよりも暖かく、しかし煩わしくないようにアップデートされる予定であると投稿しました。最終的に彼は、将来はAIパーソナリティのユーザーごとのカスタマイズがより進むことにあると示唆し、私たちのデジタルコンパニオンが私たちの条件で私たちを真に理解する世界をほのめかしました。