OpenAIのChatGPTエージェント:PC制御と高度なタスク自動化

Livescience

OpenAIは、その主力AIモデルの重要な進化形であるChatGPTエージェントを発表しました。このエージェントは現在、仮想コンピューターと統合されたツールキットを装備しています。このアップグレードにより、AIは以前は不可能だった複雑な多段階タスクを実行できるようになり、ユーザーのコンピューターを直接制御し、彼らに代わってタスクを完了することも可能になりました。このより能力の高いバージョンは、かなりの人間の監視を依然として必要としますが、Metaの研究者たちが自身のAIモデルが独立した自己改善の兆候を示していると報告する直前に登場し、またOpenAIの最新のチャットボットであるGPT-5のリリースに先行して発表されました。

ChatGPTエージェントを使用することで、ユーザーは大規模言語モデル(LLM)に情報の分析やデータの収集だけでなく、そのデータに基づいて行動するよう指示できるようになりました。たとえば、エージェントにカレンダーをスキャンして今後のイベントやリマインダーを要約させたり、大規模なデータセットを処理して簡潔な要約やプレゼンテーションのスライドデッキに凝縮させたりすることができます。従来のLLMが和風朝食のレシピを提供するだけだったのに対し、ChatGPTエージェントはさらに一歩進んで、特定の人数分のゲストに必要なすべての食材を計画し、購入することができます。

強化された能力にもかかわらず、新しいモデルには固有の限界があります。すべてのAIモデルと同様に、その空間推論能力は依然として弱く、物理的な経路の計画などのタスクは困難です。また、真の永続的な記憶も欠けており、目の前の情報を処理するだけで、信頼できる記憶や即時のコンテキストを超えて過去のインタラクションを参照する能力はありません。

それにもかかわらず、ChatGPTエージェントはOpenAI独自のベンチマークで顕著な改善を示しています。「人類最後の試験」という、さまざまな分野の専門家レベルの質問にモデルが答える能力を評価するために設計されたAIベンチマークでは、エージェントは精度が2倍以上になり、ツールなしのOpenAI o3が20.3%だったのに対し、41.6%を達成しました。また、他のOpenAIツールや、ブラウザや仮想コンピューターなどの統合機能を持たない自身のバージョンをも大幅に上回りました。困難な数学ベンチマークである「FrontierMath」では、ChatGPTエージェントはその包括的なツールスイートにより、再び以前のモデルを大幅に凌駕しました。

エージェントのアーキテクチャは、以前のOpenAI製品から派生した3つの基本的な要素に基づいています。1つ目は、独自の仮想ブラウザを介してウェブをナビゲートするように設計されたエージェントである「Operator」です。2つ目の「deep research」は、大量のデータをふるいにかけて合成することに焦点を当てています。最後のコンポーネントは、以前のChatGPTバージョンを統合し、会話の流暢さとプレゼンテーションにおけるその強みを活用しています。

モーガン州立大学の教授であり、データ工学・予測分析(DEPA)研究室のディレクターであるコフィ・ニャルコ氏は、エージェントの核となる機能を次のように要約しました。「本質的に、それは人間の監督下で、自律的にウェブを閲覧し、コードを生成し、ファイルを作成するなどができます。」しかし、ニャルコ氏はすぐに、新しいエージェントが真に自律的ではないことを強調しました。彼は、「ハルシネーション、ユーザーインターフェースの脆弱性、または誤解がエラーにつながる可能性があります。権限プロンプトや中断可能性などの組み込みの安全策は不可欠ですが、リスクを完全に排除するには十分ではありません」と警告しました。

OpenAI自身も、このより自律的なエージェントがもたらす潜在的な危険性を公然と認めており、その「高い生物学的および化学的能力」を挙げています。同社は、エージェントが化学兵器や生物兵器の作成を支援する可能性があるという懸念を表明しています。化学実験室や教科書のような既存のリソースと比較して、AIエージェントはバイオセキュリティ専門家が「能力エスカレーション経路」と呼ぶものを表しています。AIは無数のリソースに迅速にアクセスして合成し、多様な科学分野の知識を統合し、専門家メンターに似た反復的なトラブルシューティングを提供し、サプライヤーのウェブサイトをナビゲートし、注文書を完了し、さらには基本的な検証チェックを回避するのを助けることができます。

さらに、仮想コンピューターを使用することで、エージェントはファイル、ウェブサイト、オンラインツールと自律的に対話でき、誤用された場合の危害の可能性を増幅させます。データ侵害や操作のリスク、金融詐欺などの不適切な行動のリスクは、悪意のある指示が巧妙に埋め込まれてAIの動作を乗っ取るプロンプトインジェクション攻撃が発生した場合に高まります。ニャルコ氏はさらに、これらのリスクは従来のAIモデルやLLMに固有のリスクに加えて存在すると指摘しました。彼はAIエージェントに関するより広範な懸念について詳しく説明し、自律的な操作がどのようにエラーを増幅させ、公開データからの偏りを導入し、責任の枠組みを複雑にし、意図せずに心理的依存を助長する可能性があるかについて述べました。

これらの新たな脅威に対応するため、OpenAIのエンジニアは一連の安全策を強化したと報じられています。これらの対策には、包括的な脅威モデリング、デュアルユース拒否トレーニング(モデルに、有益な用途と悪意のある用途の両方を持つデータを含む有害な要求を拒否するように教えるもの)、バグ報奨金プログラム、専門家による「レッドチーム演習」(特にバイオディフェンスに焦点を当て、システムの弱点を特定するために積極的に攻撃するプロセス)が含まれます。これらの努力にもかかわらず、安全に焦点を当てた非営利団体SaferAIが2025年7月に実施したリスク管理評価では、OpenAIのリスク管理ポリシーは「弱い」と評価され、可能な100%のうちわずか33%しか与えられませんでした。OpenAIはまた、著名なAI安全組織であるFuture of Life InstituteがまとめたAI安全指数でC評価を受けました。