AI导读:

美国弗吉尼亚州卡尔佩珀县批准多个大型数据中心建设项目,为AI提供支持,但能耗巨大。生成式AI耗能远超传统AI,科技公司为此斥巨资扩建数据中心。评估AI能耗的方法存在局限,预测也存在不确定性。未来解决方案需跨越技术、政策和伦理创新。

  在美国弗吉尼亚州的卡尔佩珀县,牛的数量几乎是人口数量的3倍,空气中弥漫着干草和粪肥的气味。这里的大农场大多数仍由家庭经营,广袤的森林与田园风光交相辉映。然而,这片宁静的乡村正经历着21世纪的巨变。

  近年来,为支持生成式人工智能(AI)的发展,卡尔佩珀县批准了多个大型数据中心建设项目。这些数据中心为AI模型训练和全球查询提供支持,但能耗巨大。每个数据中心的用电量堪比数万家庭,推高了用电成本,对电网造成巨大压力。AI能耗问题成为关注焦点。

  生成式AI耗能远超传统AI,科技公司为此斥巨资扩建数据中心。然而,这些公司在AI能耗方面缺乏透明度,研究人员难以准确评估其影响。英国《自然》杂志报道称,研究人员正尝试各种方法来探索AI的实际能源需求。

  基于市场估算能耗

  荷兰阿姆斯特丹自由大学研究员、Digiconomist公司创始人亚历克斯·德弗里斯,通过基于供应链或市场的估算方法研究了英伟达服务器的功耗,并推算出其年能耗。他进一步根据特定任务所需服务器数量进行估计。

  德弗里斯估算,如将类似ChatGPT的AI整合到谷歌搜索中,将需40万至50万台英伟达A100服务器,年耗电量达230亿至290亿千瓦时。每次搜索请求需7至9瓦时能源,比普通搜索能耗高出23至30倍。

  但此方法忽略了算力成本下降趋势。过去5年,AI训练成本已降80%,芯片能效年提升35%。

  美国能源分析公司建议监测

  美国能源分析公司SemiAnalysis表示,评估生成式AI能耗的最佳方法是监测服务器发货量及其电力需求。

  自下而上实测法兴起

  更精确的自下而上测量法正在兴起。用户提交请求后,系统会估算所用硬件的能耗。

  研究发现,不同任务能耗不同。生成图像平均消耗约0.5瓦时电力,生成文本略少。但现代智能手机充满电需22瓦时。

  然而,此方法存在局限。如谷歌专有芯片的能耗数据仍被保密。

  预测存在不确定性

  国际能源署估计,2022年数据中心用电量为240至340太瓦时,占全球需求1%至1.3%。随着生成式AI普及,这一数字可能上升。但相比全球电力需求预计到2050年增长80%的趋势,数据中心能耗占比仍小。

  然而,《自然》杂志指出,AI对能源的影响在地方层面将最为严重。以美国弗吉尼亚州为例,数据中心已占该州电力消耗的4.4%,预计到2028年可能翻倍甚至增至三倍,达到总用电量的7%至12%。该州电力基础设施面临巨大压力。

  AI电力需求是否会下降?目前难以回答。独立研究员乔纳森·库米指出,预测基于简单假设,科技公司可能夸大需求。AI能耗预测的不确定性大。

  此外,AI技术进步或引发“杰文斯悖论”,即效率提升并不必然减少资源消耗,反而可能因成本降低和应用范围扩大而刺激需求增长。

  未来解决方案需跨越技术、政策和伦理创新。或许卡尔佩珀县的牧民能给出启示:数字文明需建立“能源轮牧”机制,在算力扩张与电网承载力间找到平衡。

(文章来源:科技日报)