AI发展引发能耗问题,数据中心成能耗大户
AI导读:
美国弗吉尼亚州卡尔佩珀县批准多个大型数据中心建设项目,为AI提供支持,但能耗巨大。生成式AI耗能远超传统AI,科技公司为此斥巨资扩建数据中心。评估AI能耗的方法存在局限,预测也存在不确定性。未来解决方案需跨越技术、政策和伦理创新。
在美国弗吉尼亚州的卡尔佩珀县,牛的数量几乎是人口数量的3倍,空气中弥漫着干草和粪肥的气味。这里的大农场大多数仍由家庭经营,广袤的森林与田园风光交相辉映。然而,这片宁静的乡村正经历着21世纪的巨变。
近年来,为支持生成式人工智能(AI)的发展,卡尔佩珀县批准了多个大型数据中心建设项目。这些数据中心为AI模型训练和全球查询提供支持,但能耗巨大。每个数据中心的用电量堪比数万家庭,推高了用电成本,对电网造成巨大压力。AI能耗问题成为关注焦点。
生成式AI耗能远超传统AI,科技公司为此斥巨资扩建数据中心。然而,这些公司在AI能耗方面缺乏透明度,研究人员难以准确评估其影响。英国《自然》杂志报道称,研究人员正尝试各种方法来探索AI的实际能源需求。
基于市场估算能耗
荷兰阿姆斯特丹自由大学研究员、Digiconomist公司创始人亚历克斯·德弗里斯,通过基于供应链或市场的估算方法研究了英伟达服务器的功耗,并推算出其年能耗。他进一步根据特定任务所需服务器数量进行估计。
德弗里斯估算,如将类似ChatGPT的AI整合到谷歌搜索中,将需40万至50万台英伟达A100服务器,年耗电量达230亿至290亿千瓦时。每次搜索请求需7至9瓦时能源,比普通搜索能耗高出23至30倍。
但此方法忽略了算力成本下降趋势。过去5年,AI训练成本已降80%,芯片能效年提升35%。
美国能源分析公司建议监测
美国能源分析公司SemiAnalysis表示,评估生成式AI能耗的最佳方法是监测服务器发货量及其电力需求。
自下而上实测法兴起
更精确的自下而上测量法正在兴起。用户提交请求后,系统会估算所用硬件的能耗。
研究发现,不同任务能耗不同。生成图像平均消耗约0.5瓦时电力,生成文本略少。但现代智能手机充满电需22瓦时。
然而,此方法存在局限。如谷歌专有芯片的能耗数据仍被保密。
预测存在不确定性
国际能源署估计,2022年数据中心用电量为240至340太瓦时,占全球需求1%至1.3%。随着生成式AI普及,这一数字可能上升。但相比全球电力需求预计到2050年增长80%的趋势,数据中心能耗占比仍小。
然而,《自然》杂志指出,AI对能源的影响在地方层面将最为严重。以美国弗吉尼亚州为例,数据中心已占该州电力消耗的4.4%,预计到2028年可能翻倍甚至增至三倍,达到总用电量的7%至12%。该州电力基础设施面临巨大压力。
AI电力需求是否会下降?目前难以回答。独立研究员乔纳森·库米指出,预测基于简单假设,科技公司可能夸大需求。AI能耗预测的不确定性大。
此外,AI技术进步或引发“杰文斯悖论”,即效率提升并不必然减少资源消耗,反而可能因成本降低和应用范围扩大而刺激需求增长。
未来解决方案需跨越技术、政策和伦理创新。或许卡尔佩珀县的牧民能给出启示:数字文明需建立“能源轮牧”机制,在算力扩张与电网承载力间找到平衡。
(文章来源:科技日报)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。