OpenAIのChatGPT Agent:PC制御とタスク自動化の全貌

Livescience

OpenAIは、その主力人工知能モデルの大きな進化形であるChatGPT Agentを発表しました。この高度なイテレーションは、仮想コンピューティング環境と統合ツールキットを装備しており、その能力を根本的に変革しています。もはや単なる分析やデータ検索に限定されず、このエージェントはユーザーのコンピューターを直接制御することで、複雑な多段階のタスクを実行できるようになりました。この機能の飛躍は、まだかなりの人間の入力と監視を必要としますが、AIの急速な発展期に到来しました。これは、Metaの研究者がAIモデルが独立した自己改善の兆候を示していると報告する直前であり、OpenAI自身のGPT-5のリリース前でもあります。

ChatGPT Agentを使用すると、ユーザーは大規模言語モデルに対し、情報を処理するだけでなく、それに基づいて行動するように指示できます。例えば、エージェントにカレンダーを確認して今後のイベントの概要をまとめさせたり、膨大なデータセットをふるいにかけて簡潔な要約やプレゼンテーション資料にまとめさせたりすることができます。以前の大規模言語モデルが和朝食のレシピを提供するだけだったのに対し、ChatGPT Agentは食事を完全に計画し、指定された人数分の必要な食材を購入する能力さえ持っています。

その印象的な新機能にもかかわらず、このモデルには限界がないわけではありません。現在のすべてのAIモデルと同様に、その空間推論能力は依然として弱く、物理的なナビゲーションや計画を伴うタスクを妨げます。さらに、真の永続的な記憶が欠如しており、即座の会話コンテキストを超えて過去のインタラクションを信頼性高く呼び出したり参照したりする能力なしに、情報をリアルタイムで処理します。

それにもかかわらず、ChatGPT AgentはOpenAIの内部ベンチマークで著しい改善を示しています。「Humanity’s Last Exam」(様々な分野の専門家レベルの質問にモデルが答える能力を評価するAIベンチマーク)では、エージェントはツールなしのOpenAI o3の精度を2倍以上にし、20.3%から41.6%に達しました。また、他のOpenAIツールや、ブラウザや仮想コンピューターのような統合ツールが欠如した自身のバージョンも大幅に上回りました。困難な「FrontierMath」ベンチマークでは、ChatGPT Agentは、その包括的なツールキットにより、再び以前のモデルを大差で上回りました。

エージェントのアーキテクチャは、OpenAIの以前のイノベーションから派生した3つの基盤となる柱の上に構築されています。1つ目は、ユーザーのために自律的にウェブを閲覧するように設計されたエージェント「Operator」です。2つ目は、広範なデータセットを効率的に検索し、合成するために開発された「deep research」です。最後のコンポーネントは、会話の流暢さとプレゼンテーション能力で知られるChatGPT自体の以前のバージョンを統合しています。モーガン州立大学の教授であり、データ工学および予測分析(DEPA)研究室のディレクターであるKofi Nyarko氏によると、この統合はエージェントが「人間の監督下で、自律的にウェブを閲覧し、コードを生成し、ファイルを作成するなどができる」ことを意味します。

しかし、Nyarko氏は、新しいエージェントが完全に自律的であるには程遠いことをすぐに強調しました。彼は、「幻覚、ユーザーインターフェースの脆弱性、または誤解がエラーにつながる可能性がある。許可プロンプトや中断可能性などの組み込みの安全策は不可欠だが、リスクを完全に排除するには十分ではない」と警告しました。

OpenAI自身も、エージェントの自律性向上によって生じる固有の危険を公に認めています。同社の代表者は、ChatGPT Agentが「高い生物学的および化学的機能」を持っていると述べており、化学兵器や生物兵器の作成を支援する可能性について懸念を提起しています。バイオセキュリティの専門家は、このようなAIエージェントを、既存の化学実験室や教科書のようなリソースと比較して「能力のエスカレーション経路」と見ています。AIは瞬時に無数のリソースを利用し、科学分野横断的にデータを合成し、専門家のメンターに似た反復的なトラブルシューティングを提供し、サプライヤーのウェブサイトをナビゲートし、注文書を記入し、さらには基本的な検証チェックを回避するのを助けることができます。

仮想コンピューターを使用することで、エージェントはファイル、ウェブサイト、オンラインツールとも自律的に対話でき、悪用された場合の危害の可能性を増幅させます。データ漏洩、データ操作、金融詐欺などの不適切な行動のリスクは大幅に高まります。特に、悪意のあるコマンドがユーザー入力に巧妙に埋め込まれるプロンプトインジェクション攻撃や、その他の形式のハイジャックが発生した場合に顕著です。Nyarko氏は、これらのリスクは、従来のAIモデルや大規模言語モデルにすでに内在するリスク(エラーの増幅、公開データからのバイアスの導入、責任フレームワークの複雑化、意図しない心理的依存の助長など)に加えて存在すると指摘しました。

よりエージェント的なモデルがもたらす新たな脅威に対応するため、OpenAIのエンジニアは多くの安全策も強化しました。これらの対策には、包括的な脅威モデリング、デュアルユース拒否トレーニング(モデルが有益なアプリケーションと悪意のあるアプリケーションの両方を持つ可能性のあるデータを含む有害な要求を拒否するように教えられる)、バグバウンティプログラム、およびバイオ防御に焦点を当てた専門家による「レッドチーム」演習が含まれます。これらの努力にもかかわらず、安全に焦点を当てた非営利団体SaferAIが2025年7月に実施したリスク管理評価では、OpenAIのリスク管理ポリシーが「弱い」と評価され、可能な100%のうち33%のスコアしか与えられませんでした。同様に、OpenAIは、主要なAI安全組織であるFuture of Life Instituteが作成したAI安全指数でもC評価しか得られませんでした。