AI导读:

2024年,AI行业经历训练成本显著下降等变化,同时面临商业化缓慢等挑战。回顾全年,行业共识被重新审视。展望2025年,AI发展的关键方向可能迎来新变化,Super APP等值得期待。

2024年,AI行业在狂奔中迎来了诸多变化与挑战。大模型加速落地、应用场景创新火热,但高投入与商业化缓慢带来的“下牌桌”焦虑同样显著。回顾这一年,行业共识的一些问题被重新审视,如智能算力是否依然短缺、中国AI企业的“算力焦虑”是否必要、Scaling Law是否仍值得信仰。

在辞旧迎新之际,中国AI行业的“拐点”时刻备受瞩目。虽然答案不再统一,但值得关注的是,中国AI企业正经历一些积极的变化,同时也面临更多挑战。

训练成本显著下降

2024年12月27日,中国大模型Deepseek-V3在海外社交媒体平台上引起轰动。该模型能力对标头部模型,但训练预算极低,仅需“2048个GPU、2个月、近600万美元”。相比之下,GPT-4o等模型的训练成本高达1亿美元,需在万个GPU量级的计算集群上训练。DeepSeek-V3通过算法、框架和硬件的优化协同设计,展现了极致的性价比。在预训练阶段,模型每训练1万亿token仅需18万个GPU小时,即在配备2048个H800 GPU的集群上只需3.7天。加上后训练,DeepSeek-V3完整训练消耗了278.8万个GPU小时,全部正式训练成本总计仅为557.6万美元。

DeepSeek的成功并非孤例。在英伟达显卡等高端算力资源受限的情况下,2024年,许多中国AI企业找到了降低训练成本的方法。极佳科技联合创始人兼首席科学家朱政透露,过去一年,他们训练大模型的成本也在大规模下降,从500万美金降至100万美金以下。这得益于与云厂商的合作、训练加速、通讯优化、设置优化以及数据优化的重视。

中国AI企业的“抢卡”焦虑有所缓解。朱政表示,虽然仍需购买最新架构的显卡,但随着训练效率的提升,需要的规模会下降。未来进一步下探大模型的训练成本将更困难,需要训练框架、编程语言和显卡算式的支持。蚂蚁集团科技战略与执行部副总经理彭晋表示,在采购先进算力困难的情况下,国内正在推进国产算力的替代。从蚂蚁的实践来看,国产算力已经可以支撑很大规模,但在建十万卡规模的集群方面,国产算力能否支撑有待进一步检验。

走过2024年,中国企业的“算力焦虑”正在回归理性。

未来趋势展望

2025年,中国AI行业将迎来哪些变化?北京智源人工智能研究院在《2025十大AI技术趋势》报告中指出,从基础设施到产品应用,AI发展的关键方向都可能迎来新的变化。报告认为,AI4S将驱动科学研究范式变革;具身智能领域将实现具身大小脑和本体的协同进化;统一的多模态大模型将实现更高效AI;Scaling Law将扩展向RL + LLMs,模型泛化将从预训练向后训练、推理迁移;世界模型将加速发布,有望成为多模态大模型的下一阶段;合成数据将成为大模型迭代与应用落地的重要催化剂;推理优化迭代将加速,成为AI Native应用落地的必要条件;Agentic AI将成为产品落地的重要模式;AI应用将迎来Super APP,AI安全治理体系的持续完善将成为2025年AI技术发展的十大趋势。

不少中国自研的技术和产品让业内看到了这些趋势的到来。蚂蚁发布了系列AI管家产品,智源研究院发布了完全自研的基于自回归技术的原生多模态世界模型Emu3,豆包成为国内第一、全球第二的AI原生应用。智能研究院行业研究组负责人倪贤豪提到,与2023年相比,2024年国内AI整体的应用热度已明显升温。整个基础模型的垂直产业链以及其他赛道AI应用的成熟度有了明显提升,AI在3D内容、AI硬件等场景的应用以及医疗文献处理等未来场景的探索中都有了明显拓展。

从国内大模型公开中标项目的类型分布来看,2024年10月,大模型应用类项目数量首次超过了算力类项目,占比已达56%。国产大模型在垂直行业实现了加速落地,或在诸多中大型企业扮演中台性质的基础设施。AI应用领域的Super APP能否在2025年出现同样受到业内关注。倪贤豪表示,随着大模型推理成本的下降及相关问题的解决,未来推动Agent解决复杂问题的能力提升将变得更有可能也更关键。从用户视角切入,以需求反推技术或许能撬动AI应用的用户存量和增量市场,Super APP在2025年的诞生值得期待。

智源研究院院长王仲远表示:“当前,我们处在人工智能发展的新拐点,大模型的能力涌现加速通用人工智能时代的到来,原生统一多模态、具身智能、AI for Science将进一步深化人工智能对世界的感知、理解与推理,连接数字世界与物理世界,驱动科学研究创新突破。”