AI的环保影响:一个复杂的能源方程式
随着世界努力应对快速技术进步带来的深远影响,一个反复出现的问题浮出水面:我们追求进步的环境代价是什么?纵观历史,工业革命带来了前所未有的创新,同时也伴随着重大的生态挑战,经常通过增加温室气体排放和污染来加速全球变暖。然而,当前的人工智能时代提出了一个独特的困境,引发了关于AI的内在效率是否最终能抵消其开发和维护所需的大量环境足迹的讨论,尤其是在高性能计算设施(HPC)中。
测量HPC的能源消耗是一项复杂的任务。与主要容纳用于通用计算任务的中央处理器(CPU)机架的传统服务器机房不同,AI专用设施根本上是不同的。这些先进的中心主要利用图形处理器(GPU),因其在并行处理——同时处理许多计算的能力——方面的卓越性能以及在此类任务中的相对能源效率而备受青睐。此外,HPC需要更高带宽的存储和数据传输方法来应对AI巨大的数据需求,并且它们需要复杂的冷却系统来散发大量GPU阵列产生的可观热量。与适应可变用户需求的传统服务器不同,AI设施基于固定、密集的处理任务运行。这些区别意味着最先进的AI计算中心本质上更昂贵、更耗能且更难维护。
这种能源需求的规模令人震惊。根据伯克利实验室2024年《美国数据中心能源使用报告》,AI数据中心的总耗电量在不到十年内几乎翻了三倍,从60太瓦时(TWh)飙升到2024年的176太瓦时。仅此数字就约占美国数据总消耗量的4.4%。预测表明这一趋势将继续,保守估计到2028年AI数据中心消耗将达到320太瓦时,可能达到全国能源使用量的7%。在一个典型的数据中心内,直接为GPU阵列供电的能源不到总用电量的三分之二;其余部分用于关键支持系统,如冷却、照明和温度控制,所有这些对于持续运行都至关重要。虽然这种额外的能源支出代表了一种低效率,但科学家和工程师正在进行的进步正在稳步降低这一开销,一些设施已将辅助用电量降至总电量的17%。
除了原始消耗,研究人员还在探索AI在其他领域提高效率的潜力。《自然》杂志上发表的一项研究调查了使用AI工具与人工劳动生成500字页面的假设环境成本。考虑到时间、经济成本、碳排放和水资源使用(同时搁置写作的定性方面),研究人员发现,像Meta的Llama-3这样的最先进大型语言模型(LLM)可以达到与40到150名美国公民相当的效率。更小、更节能的模型,如谷歌的Gemma-2B,表现出更大的比较效率,相当于130到1100名美国公民。
然而,这些发现并不意味着AI能直接取代人类工作者。研究人员强调了围绕潜在工作岗位流失的重大道德问题,并指出了一个紧迫的实际缺陷:AI在没有人监督的情况下固有的不可靠性。虽然AI已证明能提高人类工作者的生产力,但其独立生成可靠、高质量输出的能力仍然有限。AI系统与人类智慧的结合通常能产生理想的结果,但无人监督的LLM在没有周密的人类监督下无法持续产生可靠的工作。
尽管评估AI短期环境成本存在量化挑战,但许多人认为AI的持续发展势在必行。只要在安全的前提下,并考虑到社会的广泛利益,技术进步历来被证明是解决复杂全球问题的强大、往往是独一无二的力量。正如基因工程催化了第二次农业革命,缓解了粮食短缺,以及疫苗遏制了流行疾病一样,未来的AI技术也蕴含着巨大的希望。尽管当前减少商业农业、能源生产和交通等部门主要污染物的努力尚未取得重大突破,但AI可以通过提高可再生能源效率或改进甲烷捕获技术来加速这些努力。一个由AI赋能的更绿色未来的潜力,牢牢掌握在人类手中。