AI导读:

马斯克旗下xAI推出的Grok 3系列大模型在数学、科学和编码等领域表现突出,算力成为AI发展的关键推动力之一。然而,对比测试显示算力优势并未带来碾压式性能优势,且芯片产能和能源消耗成为制约算力提升的瓶颈。算法同样重要,AI发展需算力与算法双引擎驱动。

  在航空领域,有个说法叫“力大砖飞”,常被用来形容战斗机气动外形设计一般,但依靠强大发动机推力获得较好飞行性能。AI领域似乎也出现了类似趋势。

  近日,马斯克旗下人工智能企业xAI推出Grok 3系列大模型,称在数学、科学和编码等领域击败了Open AI的GPT-4以及深度探索公司的Deepseek V3等“前辈”。马斯克称Grok 3为“地球上最聪明的AI”。Grok 3在训练中使用了20万张高性能GPU,远超GPT-4的2.5万张和DeepSeek的2048张。有报道称,Grok 3使用的算力是GPT-4的20倍、DeepSeek的263倍。这不禁让人思考,AI发展是否将呈现“算力大则模型优”的趋势。

  算力无疑是推动AI发展的关键力量之一。尽管DeepSeek通过创新算法大幅节约算力令人惊艳,但算力的重要性不应因此被贬低。2月初,美国兰德智库评论指出,若DeepSeek可使用更多芯片,便能训练出更强大AI模型,更早做出某些发现。

  Grok 3使用了更复杂的推理模型,训练时长达到2亿GPU小时,但得益于前所未有的算力支撑,仅用8个月便完成训练。更强算力既能满足更复杂模型、更大量数据的训练需求,又可加快计算速度、缩短训练时间,促进AI模型快速迭代和进步。

  然而,AI发展不应完全依赖算力,单纯追求“力大砖飞”的技术路线并不可取。

  对Grok 3的对比测试发现,算力优势并未带来碾压式性能优势。2月19日,“印度最大的数据科学社区”Analytics Vidhya发表文章称,在对比处理Python代码编程等五个特定问题时,DeepSeek-R1对四个问题的回答优于Grok 3。网名“Alex Prompter”的X用户也使用Grok 3、DeepSeek-R1和ChatGPT o3-mini处理五个特定问题,结果Grok 3仅在两个问题中获胜。

  更值得关注的是,算力推动AI进步的同时,支撑算力的芯片产能和维持算力的能源消耗也开始遭遇瓶颈。AI发展趋势研究机构EpochAI统计显示,2019年至今,用于AI模型训练的算力约每6个月翻一番,每年增长4—5倍,而同期英伟达出货的GPU芯片计算能力10个月才能翻一番。兰德智库预测,到2028年,单个数据中心AI训练耗电量可能达1吉瓦,需一座核电站供电;到2030年,则需8座核电站。芯片产能和电力需求正成为制约算力提升的瓶颈。

  AI发展史表明,即便在算力蓬勃发展的近10年,算法也功不可没。EpochAI和MIT FutureTech联合研究发现,2014年至2023年,算力对AI性能提升贡献约占65%,算法占35%。算法改进通常具有不可预测性和间歇性,可能长期无结果,也可能一个灵感带来AI性能大幅提升。

  EpochAI报告指出,受芯片、电力等制约,到2030年,美国AI模型算力虽有潜力提升10000倍,但需数千亿美元投入。特朗普上台初便宣布“星际之门”计划,投资5000亿美元建设AI基础设施。

  因此,算力堆砌在一段时间内不会停止,很可能仍是AI发展的重要引擎,不容忽视。但DeepSeek的出现也提醒我们,AI算法领域同样需要加强投入,坚持不懈探索,哪怕经历漫长沉默。

(文章来源:科技日报)