GPT-5の高いエネルギーコスト:OpenAIは消費量について沈黙を保つ
OpenAIが新たにリリースしたGPT-5モデルは、人気のChatGPTチャットボットを動かすことになる一方で、そのエネルギー消費に関して専門家の間で大きな懸念を引き起こしています。OpenAIは、GPT-5の高度な機能(ウェブサイトの生成、博士号レベルの科学問題への回答、複雑な推論問題の解決能力など)を強調していますが、これらの画期的な進歩は、OpenAIがこれまで開示を拒否してきた多大な環境コストを伴うようです。
参考までに、2023年半ばにChatGPTの以前のバージョンへ行ったクエリ、例えばアーティチョークパスタのレシピの要求や古代カナンの神モロクへの儀式的な捧げ物の指示などは、およそ2ワット時の電力を消費した可能性があり、これは白熱電球が2分間点灯するのに相当します。専門家は現在、GPT-5で同量のテキストを生成するには、その数倍、場合によっては最大20倍ものエネルギーが必要になると推定しています。
OpenAIは、多くの競合他社と同様に、GPT-3が2020年に登場して以来、そのモデルの電力使用に関する公式データを公開していません。サム・アルトマンCEOは今年6月に自身のブログでChatGPTのリソース消費に関するいくつかの数値を共有しましたが(1クエリあたり0.34ワット時、水0.000085ガロン)、これらの数値には具体的なモデルの帰属や裏付けとなる文書が不足していました。
イリノイ大学のラケシュ・クマール教授(計算とAIモデルのエネルギー消費を研究)は、GPT-5のようなより複雑なモデルは、トレーニング段階と運用段階の両方で本質的に多くの電力を消費すると述べました。彼は、その「長時間思考」のための設計は、前身であるGPT-4よりもはるかに高い電力消費を示唆していると付け加えました。
実際、GPT-5がリリースされた日、ロードアイランド大学のAIラボの研究者たちは、このモデルが約1,000トークン(AIモデルのテキストの構成要素で、おおよそ単語に相当)の中程度の長さの応答を生成するために、最大40ワット時の電力を消費する可能性があることを発見しました。その後、同ラボが立ち上げたダッシュボードは、GPT-5のそのような応答に対する平均エネルギー消費が18ワット時をわずかに超えることを示しました。この数値は、彼らがベンチマークした他のすべてのモデルを上回っており、OpenAIが4月にリリースしたo3推論モデルと、中国のAI企業Deepseekが開発したR1を除きます。グループの研究者であるニダル・ジェガムは、これがOpenAIの以前のモデルである「GPT-4oよりも著しく多くのエネルギー」を意味すると確認しました。
これを視覚化すると、18ワット時は白熱電球が18分間点灯するのと同等です。最近の報告によると、ChatGPTは毎日25億件のリクエストを処理しているため、GPT-5が消費する総エネルギーは、150万世帯の米国家庭の1日の電力需要に匹敵する可能性があります。
この分野の研究者たちは、GPT-5がOpenAIの以前のモデルよりも大幅に大きいと信じられているため、これらの高い数値を概ね予測していました。OpenAIは、1750億のパラメーターを特徴とするGPT-3以来、モデルのサイズを大きく決定するパラメーター数をどのモデルについても開示していません。フランスのAI企業Mistralがこの夏に自社システムに基づいて実施した研究では、モデルのサイズとエネルギー消費の間に強い相関関係があることが特定され、10倍大きいモデルは、生成されるトークン量が同じであっても、1桁大きい影響を生み出すと指摘されています。以前の推定では、GPT-4はGPT-3の10倍のサイズであると広く示唆されており、ジェガム、クマール、そしてAIのリソースフットプリントを研究するカリフォルニア大学リバーサイド校の教授であるレン・シャオレイなどの専門家は、GPT-5がGPT-4よりも大幅に大きい可能性が高いと考えています。
OpenAIを含む主要なAI企業は、人間が行う仕事をこなせるAIシステムである汎用人工知能(AGI)を達成するためには、極めて大規模なモデルが不可欠であると主張しています。アルトマン自身も2月にこの見解を表明し、「任意の金額を費やすことで、継続的かつ予測可能な利益を得られる」と示唆しましたが、GPT-5が人間の知能を超えていないことを明確にしました。
GPT-5の純粋な規模がそのエネルギー需要の主要な要因である一方で、他の要因もそのリソース消費に影響を与えます。このモデルは、以前のいくつかのバージョンよりも効率的なハードウェアでの展開から恩恵を受けています。さらに、GPT-5は「エキスパートの混合」アーキテクチャを利用しているようで、これはすべてのパラメーターがすべてのクエリに対して活性化されるわけではない合理化された設計であり、エネルギー使用量を削減する可能性があります。逆に、GPT-5のマルチモーダル機能(テキストに加えてビデオや画像を処理できる機能)と「推論モード」(応答を生成する前により長い計算時間を伴う機能)は、そのエネルギーフットプリントを大幅に増加させる可能性があります。レンは、推論モードを使用すると、同じ回答に対してリソース消費が5〜10倍増加する可能性があると推定しています。
ロードアイランド大学のチームは、モデルがクエリに応答するのにかかる平均時間に、運用中の平均電力消費量を掛けることで推定値を算出しました。ロードアイランド大学のデータサイエンス教授であるアブデルタワブ・ヘンダウィは、特に異なるモデルがデータセンター内でどのように展開されているかに関する情報が不足しているため、モデルの電力消費量を推定するにはかなりの労力が必要であると述べました。彼らの最終論文には、特定のモデルが使用するチップの推定値と、データセンター内のさまざまなチップ間でクエリがどのように分散されるかに関する情報が含まれています。特筆すべきは、アルトマンの6月のブログ投稿で示されたChatGPTの1クエリあたり0.34ワット時という数値が、GPT-4oに関する同グループの発見と密接に一致しており、彼らの方法論の信頼性を裏付けています。
ヘンダウィ、ジェガム、および彼らの研究グループの他のメンバーは、彼らの発見が、AI企業がますます大規模で強力なモデルをリリースし続ける中で、より大きな透明性の緊急の必要性を強調していると強調しています。URIの別の教授であるマルワン・アブデラッティは、「AIの真の環境コストに対処することは、これまで以上に重要です。私たちはOpenAIおよび他の開発者に対し、この機会を捉えてGPT-5の環境影響を公に開示することで、完全な透明性に取り組むよう求めます。」と断言しました。