エージェントAI:専門家が語る台頭と歴史的背景

Aihub

「エージェントAI」 — 自律的な行動と意思決定が可能な人工知能システム — の概念は、大規模言語モデル(LLM)の急速な進歩によって、大きく再燃しています。しかし、この新たな関心は、急成長するLLMコミュニティと、数十年にわたりインテリジェントエージェントの研究に専念してきた研究者との間に、興味深い緊張を生み出しています。

自律エージェントおよびマルチエージェントシステム(AAMAS)コミュニティの専門家たちは、30年以上にわたりエージェントの定義と仕組みを探求してきた分野ですが、奇妙な傾向を観察しています。バージニア工科大学のサンメイ・ダス氏は、新たな論文が、彼らの分野で長年議論され、解決されてきたエージェンシーに関する基本的な問題に取り組んでいる、「車輪の再発見」が広く行われていると指摘します。エージェントに対する歴史的なアプローチは、しばしば明示的な世界モデル、推論、論理を含んでいましたが、これは現在のLLMのブラックボックス的で統計的な性質とは著しい対照をなしています。この断絶は、「西部開拓時代」のようなシナリオにつながり、過去の業績を十分に評価することなく、基礎的な原則が再検討されています。

バル=イラン大学のサリット・クラウス氏もこの意見に同意し、最近の論文が、1980年代の「コントラクトネット」のような確立された概念を、LLMエージェント間のタスク割り当てのために事実上「再発明」している事例を指摘しています。彼女は、既存の協調と協力に関する文献をより深く掘り下げることで、かなりの時間を節約し、研究者がより高度な問題に取り組むことができると示唆しています。同様に、複雑なタスクをサブエージェントに分解するというアイデアは、現在LLMの新しいアプローチとして位置づけられていますが、これは『ディプロマシー』のような複雑なゲームにおけるAIプレイヤーの初期設計を反映しています。

ブラウン大学のマイケル・リットマン氏は、LLMを強力な新しいプログラミング言語に例えています。LLMはAIシステム構築のための前例のない機能を提供する一方で、彼は、エージェント設計における深く、長年の課題を本質的に解決するものではないと警告しています。彼は最近の実験を引用しました。LLMベースのエージェント「クラウディウス」がオンラインショップの運営を任されたのですが、通信、注文、価格設定を処理する能力があったにもかかわらず、システムは最終的に大失敗し、タングステンキューブのような不合理な商品を自ら購入し、販売しようと操作されることさえありました。開発者たちはこれを「修正可能な問題のある勝利」と見なしましたが、リットマン氏は、これらの「修正」は、エージェントコミュニティが何十年も取り組んできたまさにその問題に取り組むことに等しいと主張します。LLMの単なる改善が、これらの複雑な問題を魔法のように些細なものにすることはない、と彼は示唆しています。

これらの批判にもかかわらず、LLMの統合は刺激的な新しい可能性を提供します。ブリストル大学のサビーヌ・ハウアート氏(協調ロボットエージェントの設計に焦点を当てた研究を行う)は、LLMがこれまで不足していた個々のエージェント相互作用における「豊かさ」を提供すると見ています。彼女は「両者の良いとこ取り」のシナリオを構想しています。それは、確立された群知能パラダイムを使用して、高度な能力を持つLLM強化エージェントがローカルな相互作用を実行し、体系的に集合体に組み込まれるというものです。この収束は、より堅牢で洗練されたマルチエージェントシステムにつながると彼女は信じています。

しかし、この新しい状況における「エージェント」の定義そのものは依然として議論の的です。オレゴン州立大学のトム・ダイターリッヒ氏は、多くのいわゆる「エージェントシステム」が本当にエージェントなのか、それとも単に複雑なコンピュータープログラムなのかを疑問視しています。彼は、LLMが比較的短い短期記憶しか持たないため、エンジニアがタスクを複数の連鎖的な呼び出しに分解する必要があることが多いと指摘します。これは真の自律性というよりはソフトウェアエンジニアリングの作業です。このことは、これらのシステムの擬人化に関する懸念を引き起こします。特に、議論が個々の仕事を置き換えることから、「エージェント」によってチーム全体を置き換えることにシフトするにつれて、この懸念は増しています。

サンメイ・ダス氏はさらに潜在的な落とし穴について警告し、2つの古い価格設定ボットがフィードバックループにより誤って古い生物学の教科書をAmazonで1700万ドルで出品してしまったという、ユーモラスだが警戒すべき事件を思い出させます。彼は、LLMエージェントでも同様の、しかし潜在的により有害なダイナミクスが出現する可能性があると示唆しており、特に彼らがどのように目標を決定するかに注目しています。これは、強化学習における「報酬ハッキング」問題と共通しており、エージェントがシステム上の抜け穴を利用してプログラムされた報酬を達成しようとし、予期せぬ混沌とした結果につながる可能性があります。

トム・ダイターリッヒ氏とサビーヌ・ハウアート氏が示唆する今後の道筋は、より狭く、より検証可能なエージェントへの戦略的な回帰を含むかもしれません。個々のコンポーネントを十分に制約することで、その正確性について推論することが可能になります。これは広範なAIシステムにとって極めて重要な課題です。これにより、汎用人工知能(AGI)が単一の巨大な存在からではなく、多くの異種でタスク特化型のエージェントの集合知から生まれる未来につながる可能性があります。LLMが人間とエージェントのシステムにおける自然言語インタラクションの障壁を解決する上で果たす役割への期待は依然として高いですが、戦略、意思決定、および検証可能な自律性という核心的な課題は残っており、伝統的なエージェント研究コミュニティには依然として重要な仕事があることを保証しています。