GPT-5は期待外れ:AIイノベーションは壁にぶつかったのか?

Ft

OpenAIが先週発表した待望の新しい人工知能モデル、GPT-5は、極めて重要な瞬間となるはずだった。サム・アルトマンCEOは、人間レベルの知能を達成または超えることができるAIシステムを指す「AGI(汎用人工知能)への道のりの重要な一歩」と称賛した。幹部らはまた、このモデルが、史上最速で成長した消費者向けアプリケーションとなった多機能チャットボットChatGPTのユーザーエクスペリエンスを洗練させることを期待していた。

しかし、約束されたポジティブな「雰囲気」はすぐに消え去った。ユーザーはソーシャルメディアに、米国の地図の誤ったラベリング(以前のモデルでも繰り返された問題)のような基本的なエラーを示す画像を多数投稿した。さらに批判的なことに、上級ユーザーは、モデルの「個性」の変化に失望を表明し、競合他社と比較して標準ベンチマークでの期待外れのパフォーマンスを指摘した。多大な期待が寄せられていたにもかかわらず、GPT-5は現在、以前のGPTの反復で見られたような革新的な飛躍ではなく、単なる漸進的なアップグレードと広く見なされている。Hugging Faceの共同創設者であるトーマス・ウルフは、「人々は全く新しい何かを発見することを期待していた。しかし、今回はそれが本当にありませんでした」とまとめた。

生成AIに数千億ドルが注ぎ込まれる中、今、シリコンバレーには切実な問いが響き渡っている。もしこれが限界なのだとしたら?この3年間、AIの研究者や投資家は、絶え間ないイノベーションのペースに慣れてきた。かつては難攻不落に見えたOpenAIも、Google、Anthropic、DeepSeek、そしてイーロン・マスクのxAIのような競合他社が急速に差を縮めているのを目の当たりにしてきた。これが、差し迫ったAGIの到来という大胆な予測を煽り、アルトマンはドナルド・トランプ大統領の任期中にその到来を予測していた。OpenAIの推定5000億ドルの評価を支えるこれらの高まる期待は、GPT-5が印象を与えられなかったときに現実と衝突した。著名なAI評論家であるゲイリー・マーカスは、きっぱりと述べた。「GPT-5は、AGIに到達するためのスケーリングという全体的なアプローチの中心的な象徴だったが、それは機能しなかった。」

カリフォルニア大学バークレー校のコンピューターサイエンス教授であるスチュアート・ラッセルは、1980年代の「AIの冬」との類似点を指摘する。当時、イノベーションは期待に応えられず、利益ももたらさなかった。彼は、システムが収益を上げていなかったため、当時「バブルが弾けた」ことを思い出す。ラッセルは、今日同様のシナリオが急速に展開する可能性があると警告し、それを「AIベビー」を抱えずに済むように誰もが争う椅子取りゲームに例えている。一部の人々は、この技術がまだ初期段階にあり、資本が流れ続けていると主張するが、ラッセルは、過度に膨らんだ期待が劇的な裏目に出る可能性があると警告している。

中核的な課題は、大規模言語モデルを構築する主流の方法、つまり、より多くのデータと計算能力がより大きく、より能力の高いモデルを生み出すという点にある。多くのAIリーダーはこれらの「スケーリング法則」が成り立つと信じているが、このアプローチはリソースの限界に直面している。AI企業は、無料で利用できるトレーニングデータをほぼ使い果たしており、現在、出版社とのコンテンツ共有契約を積極的に追求している。さらに、大規模モデルのトレーニングと実行は信じられないほどエネルギーを消費する。GPT-4は数千個のNvidiaチップを使用したが、GPT-5は数十万個の次世代プロセッサを使用したと報じられている。OpenAIのサム・アルトマンCEOは最近、これらの限界を認め、基盤となるAIモデルは「依然として急速に改善している」ものの、ChatGPTのようなチャットボットは「それほど良くならないだろう」と述べた。

一部のAI研究者は、大規模言語モデルのスケーリングに集中しすぎたことが、代替研究を影に隠すことで、意図せず進歩を制限してしまったと主張している。Metaのチーフサイエンティストであるヤン・ルカンは、「テキストで訓練された純粋なLLMでは、収穫逓減の段階に入っている」と考えている。しかし、彼は、これが「ビデオや他のモダリティを通じて現実世界を理解するように訓練された深層学習ベースのAIシステム」の天井を意味するものではないと強調する。これらの「世界モデル」は、言語以外の物理世界の要素から学習し、計画、推論、永続的な記憶を可能にし、自動運転車やロボット工学の進歩を推進する可能性がある。CohereのチーフAIオフィサーであるジョエル・ピノーもこれに同意し、「単に計算能力を追加し続け、理論的なAGIを目指すだけでは十分ではないでしょう」と述べている。

AI開発の減速に対する疑念は、すでに米国の貿易・技術政策に影響を与えている。ジョー・バイデン大統領の政権下では、AIの急速な成長が危険な結果をもたらすという懸念から、安全性と規制が強く重視されていた。ドナルド・トランプの自由主義的な傾向は、AI規制の優先順位が低いことを常に示唆していたが、最近でも、国家安全保障上の懸念から、ワシントンはNvidiaの中国向けH20チップに対する輸出規制を脅かした。ワシントンの視点の変化を明確に示したのは、トランプのAIツァーであるデイビッド・サックスで、彼は「失業に関する黙示録的な予測は、AGI自体と同じくらい誇張されている」と宣言した。サックスは、AI市場が競争が激しく、人間の役割が明確な「ゴルディロックス」状態のバランスを達成したと主張した。その後まもなく、トランプはNvidiaのCEOであるジェンスン・フアンとH20の中国への販売再開について合意し、さらに強力なBlackwellシステムの修正版の許可も検討した。アナリストは、AGIが差し迫ったリスクと見なされなくなったことで、ワシントンの焦点は、米国製のAIチップとモデルが世界的に優位に立つことを確保することに移ったと示唆している。

OpenAIの意図ではなかったかもしれないが、GPT-5のローンチは根本的な変化を浮き彫りにしている。プリンストン大学の研究者であるサヤシュ・カプール氏によると、AI企業は「製品のインフラを構築しているという事実にゆっくりと向き合っている」という。彼のチームは、GPT-5のパフォーマンスが常に中程度であることを発見したが、「非常に費用対効果が高く、他のモデルよりもはるかに速い」点で優れていた。この効率性は、AGIへの並外れたブレークスルーがなくても、製品やサービスにおける significant なイノベーションを解き放つ可能性がある。AI政策研究者のマイルズ・ブランデージ氏は、「AIが多くの有用な方法で応用されるにつれて、人々がAGIのようなより抽象的なアイデアよりもアプリケーションに焦点を当てるのは理にかなっている」と述べている。主要なAI企業は現在、「フォワードデプロイエンジニア」を配置し、モデルを直接クライアントシステムに組み込んでいる。カプール氏は指摘する。「企業は、人類のすべての仕事を自動化する寸前だと考えているなら、そんなことはしないだろう。」

基盤となるAI開発の明らかな減速にもかかわらず、