DeepSeek引领国产算力与模型结合新趋势
AI导读:
DeepSeek大模型发布后,国产GPU企业及云计算厂商纷纷披露适配进展,预示着国产算力与国产大模型结合的机会窗口已经打开。尽管目前仍依赖英伟达生态,但国产算力正不断提升,未来算力底座或呈现多元共存形态。
DeepSeek成为2025年春节国产算力企业领域的最大亮点。在春节前,DeepSeek大模型震撼发布,随后在春节期间,国内GPU企业及云计算厂商纷纷披露了适配DeepSeek模型的最新进展,众多科技从业者因此度过了一个忙碌的春节假期。DeepSeek大模型的训练主要基于英伟达的GPU,该品牌目前占据全球大模型算力底座的九成以上份额。然而,DeepSeek的出现预示着重大转变的可能性:训练高性能大模型所需的算力投入或许将不再那么高昂。
DeepSeek在科技圈内引发强烈震荡,国产算力与国产大模型相结合的机会窗口已经打开。沐曦CTO杨建预测,到今年年底,部分大模型的预训练可能会转向非英伟达显卡,而明年这一趋势将更加明显。他进一步指出,中国市场正逐步演变,未来英伟达将成为一部分算力底座,而其他国产芯片则将构成另一部分算力底座,全球算力供应将形成两条并行线路。
春节期间,国产芯片密集适配DeepSeek。2月1日,大模型云服务平台Silicon Cloud正式上线了DeepSeek-V3和DeepSeek-R1,并特别强调在自研推理加速引擎的加持下,基于华为云昇腾云服务部署的DeepSeek模型效果可与全球高端GPU部署模型相媲美。2月2日,Gitee AI宣布在春节期间上线四个小型DeepSeek模型,均部署在国产沐曦曦云GPU上,面向开发者市场。2月4日,摩尔线程宣布完成小尺寸DeepSeek模型在其自主设计的夸娥GPU集群上的部署,并表示即将开放夸娥智算集群,支持DeepSeek V3、R1模型及新一代蒸馏模型的分布式部署。2月5日,云服务商优刻得宣布基于壁仞科技国产芯片的内存架构和多模型适配能力,开展DeepSeek全系列模型适配工作。
此外,昆仑芯也完成了DeepSeek全版本模型适配,包括DeepSeek MoE模型及其蒸馏的Llama/Qwen等小模型。与此同时,国内外科技大厂如阿里云、百度云、腾讯云、亚马逊云科技、Meta、谷歌等也先后表示已将DeepSeek模型纳入其产业生态,尽管这些大厂的算力底座目前仍主要是英伟达。
尽管DeepSeek展现了强大的产业穿透力,但它并未脱离英伟达生态。有观点认为,DeepSeek绕过英伟达的CUDA是误读,其技术实现仍深度依赖NVIDIA生态的核心组件。这种依赖关系反映了当前AI算力领域“NVIDIA主导,开源生态依附”的现实格局。
然而,国产芯片适配DeepSeek只是第一步。国产GPU适配主流开源大模型已有数年历史,但难点在于如何将模型架构与硬件架构有效结合以提升整体性能。目前,DeepSeek大模型搭配的国产GPU在性能上与英伟达GPU仍有一定差距,这主要源于DeepSeek模型最初是在英伟达芯片上运行并针对其进行了高度优化。因此,将这些优化点匹配到国产芯片上需要时间。
此外,英伟达拥有宽广且深厚的护城河,其社区活跃度高,用户遇到问题容易找到解决方案。相比之下,国产卡的信息开放度较低,社区活跃度不高,用户一旦遇到问题难以解决。这一点在小型团队上表现得尤为明显。因此,在小型公司部署大模型时,优先考虑的仍是英伟达的算力。
尽管如此,国产算力仍在不断提升。据杨建观察,DeepSeek公开的技术报告对芯片设计给出了一些建议。他认为,国产芯片企业规模较小,具有灵活机动的优势,可以根据DeepSeek的建议进行调整。而王晓慧也表示,只要走在这个发展路径上,国产芯片与DeepSeek的适配一定会越来越好。
随着国产替代的推进、算法优化能力的提升以及行业对供应链安全的重视,国产算力将逐步降低对英伟达的单一依赖风险。未来的算力底座更可能呈现“多元共存”的形态而非某一厂商的绝对主导。(文章来源:第一财经)
![](http://example.com/image1.jpg)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。