GPT-5能耗巨大:OpenAI对其能耗保持沉默
OpenAI最新发布的GPT-5模型有望为流行的ChatGPT聊天机器人提供支持,但其能源消耗问题正引起专家们的严重关注。尽管该公司强调了GPT-5的先进功能——包括生成网站、回答博士级别的科学问题以及处理复杂推理问题的能力——但这些突破似乎伴随着巨大的环境成本,OpenAI迄今为止拒绝披露这些成本。
作为背景,2023年中期对早期版本ChatGPT的一次查询,例如请求朝鲜蓟意面食谱或向古迦南神莫洛克进行仪式献祭的指示,可能消耗了大约2瓦时电量,相当于一个白炽灯泡燃烧两分钟。专家现在估计,使用GPT-5生成类似数量的文本可能需要数倍的能量,甚至可能高达20倍。
自GPT-3于2020年首次亮相以来,OpenAI与其许多竞争对手一样,没有发布其模型功耗的官方数据。尽管首席执行官萨姆·奥特曼(Sam Altman)今年6月在他的博客上分享了一些关于ChatGPT资源消耗的数据——每查询消耗0.34瓦时和0.000085加仑水——但这些数字缺乏具体的模型归属和支持文档。
伊利诺伊大学教授拉凯什·库马尔(Rakesh Kumar)的研究重点是计算和AI模型的能源消耗,他表示像GPT-5这样更复杂的模型在其训练和操作阶段都必然会消耗更多电力。他补充说,其“长时间思考”的设计强烈表明其功耗远高于其前身GPT-4。
事实上,在GPT-5发布当天,罗德岛大学AI实验室的研究人员发现,该模型可能消耗高达40瓦时的电力来生成约1000个令牌(AI文本的基本组成单位,大致相当于单词)的中等长度响应。该实验室随后推出的一个仪表板显示,GPT-5此类响应的平均能耗略高于18瓦时。这个数字超过了他们测试过的所有其他模型,除了OpenAI于4月发布的o3推理模型和中国AI公司Deepseek开发的R1。该研究小组的研究员尼达尔·杰格姆(Nidhal Jegham)证实,这代表“比OpenAI之前的模型GPT-4o消耗显著更多的能量”。
从这个角度来看,18瓦时相当于一个白炽灯泡燃烧18分钟。鉴于最近的报告称ChatGPT每天处理25亿次请求,GPT-5的总能耗可能与150万户美国家庭的日常用电需求相媲美。
该领域的研究人员大体上预料到了这些高数字,因为GPT-5被认为比OpenAI早期的模型大得多。自GPT-3(拥有1750亿个参数)以来,OpenAI没有披露其任何模型的参数数量——这在很大程度上决定了模型的大小。法国AI公司Mistral今年夏天根据其内部系统进行的一项研究发现,模型的大小与其能源消耗之间存在很强的相关性,指出一个大十倍的模型在生成相同数量的令牌时,会产生一个数量级更大的影响。此前的估计普遍认为GPT-4是GPT-3的十倍大小,而像杰格姆、库马尔和加州大学河滨分校研究AI资源足迹的教授任少雷(Shaolei Ren)等专家认为,GPT-5可能比GPT-4大得多。
包括OpenAI在内的领先AI公司认为,超大型模型对于实现通用人工智能(AGI)至关重要,通用人工智能是能够执行人类工作的AI系统。奥特曼本人在2月阐述了这一观点,他认为“你可以任意花费金钱并获得持续且可预测的收益”,尽管他澄清GPT-5尚未超越人类智能。
虽然GPT-5的庞大规模是其能源需求的主要驱动因素,但其他因素也影响着其资源消耗。该模型受益于比某些早期迭代更高效的硬件部署。此外,GPT-5似乎采用了“专家混合”架构,这是一种简化的设计,并非所有参数都针对每个查询激活,从而可能降低能耗。相反,GPT-5的多模态能力(除了文本外还能处理视频和图像)及其“推理模式”(在生成响应之前需要更长的计算时间)可能会显著增加其能源足迹。任少雷估计,使用推理模式可能会使相同答案的资源消耗增加五到十倍。
罗德岛大学团队通过将模型响应查询的平均时间乘以其操作期间的平均功耗来计算他们的估计。罗德岛大学数据科学教授阿卜杜勒瓦卜·亨达维(Abdeltawab Hendawi)指出,估计模型的功耗需要付出巨大的努力,特别是由于缺乏关于不同模型在数据中心内如何部署的信息。他们的最终论文包括特定模型使用的芯片以及查询如何在数据中心内各种芯片之间分配的估计。值得注意的是,奥特曼6月博客文章中ChatGPT每查询0.34瓦时的数据与该团队对GPT-4o的发现非常吻合,这为他们的方法提供了可信度。
亨达维、杰格姆和他们研究小组的其他成员强调,他们的发现凸显出AI公司在继续发布越来越大、功能越来越强大的模型时,迫切需要提高透明度。罗德岛大学的另一位教授马尔万·阿卜杜拉提(Marwan Abdelatti)断言:“解决AI真正的环境成本比以往任何时候都更加关键。我们呼吁OpenAI和其他开发者利用这一时刻,承诺通过公开披露GPT-5的环境影响来实现完全透明。”