OpenAIがモデル切り替え問題を修正後、GPT-5がより賢く進化

Decoder

OpenAIは、最新の大規模言語モデルであるGPT-5の初期展開における課題に積極的に対処しており、モデルの容量、品質、およびユーザーインターフェースの即時改善を目指しています。同社のCEOであるサム・アルトマン氏は最近、Xを通じて、現在進行中の展開が完了次第、ChatGPT Plusの購読者のGPT-5メッセージ制限が倍増することを明らかにしました。この動きは、ユーザーエクスペリエンスを向上させるための広範な取り組みの一環であり、Plusユーザーが以前のGPT-4oモデルに引き続きアクセスできるようにしつつ、OpenAIはその利用状況を監視し、将来の提供決定に役立てる予定です。

現在、ChatGPT Plusユーザーは3時間ごとに100メッセージに制限されており、この制限に達するとシステムは自動的により小さなモデルに切り替わります。より複雑なタスク向けに設計された特殊なGPT-5-Thinkingバリアントには、週あたり200メッセージという独自の制限がありますが、標準のGPT-5とGPT-5-Thinking間の切り替えはこの週ごとの合計には含まれません。アルトマン氏の発表は、ユーザーが即座にパフォーマンスの向上を感じるべきであり、GPT-5は「今日からより賢く見えるはずだ」と示唆しています。彼は、モデルが時折「はるかに愚かに」見えた以前の矛盾を、各ユーザーのプロンプトに適切なGPT-5バリアントを選択する責任を負うコアの自動モデル切り替え器の初期の問題に起因するとしました。

すべてのユーザーに対する包括的な展開は、OpenAIが当初予想していたよりも複雑で時間のかかるものであることが判明しました。アルトマン氏はこれを「大規模な変化」と特徴づけ、過去24時間でAPIトラフィックが約2倍になったことを強調しました。多数の変更が同時に実装されたため、ある程度の運用上の摩擦は予想されていましたが、アルトマン氏は、ローンチ段階が同社が期待していたよりも「少し困難だった」と認めました。

即時の修正に加えて、OpenAIは、プロンプトが特定のモデルにどのように割り当てられるかを決定する基盤となるモデルルーティング戦略も改善しています。目標は、ユーザーのリクエストとそれを処理するのに最適なモデルとの間により信頼性の高いマッチングを確保することです。アルトマン氏はまた、将来的に透明性を高め、現在どのモデルがアクティブであるかをユーザーにより明確にすることを示唆しました。さらに、ユーザーはいずれ、インターフェースを介して「Thinking」モードを手動で直接アクティブにする機能を得るかもしれませんが、これらの機能のタイムラインは提供されていません。

これらの戦略的な調整は、OpenAIが以前に強調していた完全に自動化されたモデルルーティングからの方針転換を示唆しています。自動ルーティングは、モデルを手動で選択したくない新規ユーザーにとってエクスペリエンスを簡素化しますが、意図せずに信頼性の低い応答や、特定のタスクに不適切なモデルの展開につながる可能性があり、大規模言語モデルのすでに複雑な出力に予測不可能性の層を追加します。より高度な制御を好むユーザー向けに、OpenAIはChatGPTの設定を通じて「レガシー」モデルへのアクセスを有効にするオプションを維持しており、それらのモデルは「その他のモデル」の下に表示されます。ただし、より高度なGPT-5の「Thinking」および「Pro」バリアントは、Proアカウントを通じてのみアクセス可能です。