Grok 3能耗争议:20万块GPU烧出AI新纪录
AI导读:
Grok 3作为有史以来能耗最高的大模型,其训练消耗的能源相当于一座小城市一年的用电量。尽管在多项测试中表现优异,但直播中的崩溃事件和环保争议引发关注。Grok 3是否真正强大,还需时间验证。
20万块GPU“烧出”的Grok 3是否真的是地表最强AI?尽管存在争议,但不可否认的是,Grok 3已成为有史以来能耗最高的大模型,其训练消耗的能源相当于一座小城市一年的用电量,或4万多辆燃油车一年的碳排放量。
Grok 3的诞生揭示了其仍依赖以能耗换性能的传统“规模扩展”模式。在当前全行业推崇性价比和开源的背景下,Grok 3面临在优化模型效率与降低能耗之间找到平衡点的挑战。
2月18日,马斯克在X平台直播发布Grok 3模型,并现场演示。其PPT显示,基准测试结果表明Grok 3在多项测试中击败了谷歌Gemini 2 Pro、Deepseek V3等竞争对手。在大模型竞技场Chatbot Arena LLM排行榜上,Grok 3早期版本突破1400分,成为史上首个达到此分数的模型。

然而,Grok 3的1400分与其他大模型差距并不悬殊,柱状图的起始点为1300,自带“放大”效果。直播中,Grok 3在演示飞向火星代码时崩溃,两次生成失败,最终在第三次尝试时才成功。
直播后,部分X用户测试了Grok 3 Beta版,发现其在简单问题上的回答出错。考虑到Grok 2发布时轰动一时但后续表现不佳,此次Grok 3能否避免“跑分高但实用不足”的质疑,仍是未知数。目前可以确定的是,这款马斯克口中的“地球上最聪明的AI”依赖算力堆叠,训练成本极其庞大。
马斯克透露,Grok 3的训练量是Grok 2的10倍,基于xAI位于孟菲斯的超级计算机集群进行。该集群第一阶段拥有10万块NVIDIA H100 GPU,第二阶段拓展到20万块。仅硬件消耗就已超出30亿美元。
相比之下,DeepSeek V3在配备2048块算力受限的英伟达H800 GPU集群上训练,总成本为557.6万美元。Grok 3的算力消耗为DeepSeek V3的263倍,彰显了两者在资源使用上的极大差异。能耗方面,Grok 3使用的GPU总能耗相当于一个小城市的用电量。
有网友比喻称,Grok 3像20支AK绑在一起狂射,而DeepSeek则像练定向狙击。前者依赖土豪堆装备的打法,后者在算力有限的情况下压缩能耗实现性能最大化,强调人类在其中的作用和价值,是真正的AI精神和未来方向。
马斯克与xAI团队预告,他们已在研究下一个更强大的算力集群,所需电力高达1.2GW。然而,xAI的超级计算机集群在所在地引发了环保争议,正是能耗巨兽Grok 3带来的环境压力。
据美国田纳西州孟菲斯市当地媒体报道,xAI计划继续使用燃气轮机为其超级计算机供电。这批燃气轮机引发了环境方面的担忧,使得孟菲斯本已不佳的空气质量更加糟糕。
(文章来源:澎湃新闻)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

