OpenAI星际之门项目推进,DeepSeek挑战缩放定律
AI导读:
OpenAI正推进数千亿美元的AI基础设施建设项目星际之门,同时DeepSeek模型挑战了AI大模型性能的缩放定律,引发行业对算力投资的冷静思考。
北京时间2025年2月7日,全球AI领域的巨头OpenAI宣布,正紧锣密鼓地评估多个地区,以选定“星际之门”项目的数据中心所在地。这一举措标志着OpenAI正坚定不移地推进其规模高达数千亿美元的AI基础设施建设宏伟蓝图。
在OpenAI面向媒体的电话会议中,首席全球事务官克里斯·莱恩(Chris Lehane)强调:“DeepSeek的推出,无疑加剧了这场竞争的白热化,其重要性不言而喻,或将深刻影响未来世界的格局。”
据OpenAI透露,星际之门项目的首座数据中心已落地美国德克萨斯州,且公司正积极寻求在美国本土增设更多AI智算中心。目前,已有16个美国州对星际之门项目表达了浓厚兴趣。OpenAI官方公告指出,该项目不仅将加速AI技术的发展,还将创造数千个新工作岗位,有力推动美国部分地区的再工业化进程。
星际之门项目于2025年1月正式公布,得到了美国新任总统特朗普的大力支持。该项目由OpenAI、软银和甲骨文三家公司共同发起,初期投资达1000亿美元,计划在未来四年内陆续投资4000亿美元,用于在美国本土全面建设AI基础设施。
与此同时,微软、谷歌、亚马逊等硅谷云计算巨头在2025年继续加大资本开支。谷歌预计其2025年的资本开支将增长超过40%,达到750亿美元;Meta的资本开支预计增长超60%,可能达到650亿美元;微软的资本开支预计增长超80%,达到800亿美元;亚马逊的资本开支预计增长超35%,达到1050亿美元。这些资金多用于打造以AI智算中心为代表的AI基础设施,这符合追求大算力缩放定律(Scaling Law)的逻辑。
缩放定律由OpenAI于2020年提出,即AI大模型的性能会随着模型参数量、训练数据量以及计算资源的增加而提升。然而,随着模型参数的增加,对训练数据量和计算资源的需求也呈现指数级增长。近期,这一定律开始受到一些质疑。前OpenAI首席科学家伊尔亚·苏茨克维(Ilya Sutskever)在一次技术峰会上指出,全球训练数据量正面临枯竭,这可能意味着无法通过单纯扩大训练数据量来大幅提升AI大模型的性能。当可训练数据增长放缓或停滞时,即使增加计算资源和模型参数,模型性能的提升也将变得有限,这直接冲击了缩放定律的基本假设。
此外,DeepSeek V3/R1模型的出现也对缩放定律构成了挑战。DeepSeek模型以其低成本和高性能著称,其V3模型的训练成本不到600万美元。这一现象引发了行业对大规模投资算力以提升AI大模型性能有效性的质疑。艾媒咨询首席分析师张毅表示:“DeepSeek的火爆出圈正使得算力高企的门槛变得相对平滑,市场对算力的态度或将回归冷静。”
然而,从长远来看,不少业内人士仍认为缩放定律依然有效。Arm CEO雷内·哈斯指出:“尽管DeepSeek对AI产业链构成利好,但这还远远不够。云计算大厂在2025年纷纷增加资本开支,表明我们仍处于AI浪潮的早期阶段,更加强大的AI所带来的革命性能力仍在酝酿之中。”这一观点得到了多家业内券商机构的回应。中信建投近期研报认为,尽管缩放定律在技术、算力、数据等方面遭遇瓶颈,但强大的AI基础模型仍是各厂商未来追求的主要方向。DeepSeek R1的技术报告也强调了更大AI基础模型的价值。
Omdia分析师王珅同样认为,从长远来看,缩放定律所代表的大算力训练出更好模型,进而拥有更多AI未来潜力的逻辑依然成立。同时,他也指出:“DeepSeek代表着一个轻量、高性价比、专注深化AI能力的探索方向,而星际之门则延续了此前的高算力方向。未来这两种方向将如何发展变化,尚需时间观察。如果行业更倾向于探索DeepSeek所代表的方向,那么这将对原本基于高算力、高投资的基础逻辑产生一定冲击,可能导致大规模AI智算中心建设的减速。”

(文章来源:第一财经)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。