AI导读:

DeepSeek发布新模型DeepSeek-R1并同步开源模型权重,引发全球AI科技圈关注。英伟达股价因DeepSeek的成功及算力需求变化受到影响。多家主流媒体纷纷报道DeepSeek的研究进展及影响。

DeepSeek再次在海外掀起波澜,成为全球AI科技圈的焦点。自1月20日该公司发布新模型DeepSeek-R1并同步开源模型权重以来,这家源自中国的AI创业公司迅速吸引了全球目光。近日,包括《纽约时报》、《经济学人》和《华尔街日报》在内的多家英美主流媒体纷纷报道了DeepSeek的研究进展,对其模型的卓越性能赞不绝口。CNBC更是发文指出,DeepSeek-R1凭借其超越美国顶尖同类模型的性能,加之更低的成本和更少的算力消耗,已在硅谷引发了不小的恐慌。

尤为引人注目的是,知名半导体公司超微半导体(AMD)昨日宣布,已将DeepSeek-V3模型集成到其芯片产品Instinct MI300X GPU上,旨在与SGLang共同实现最佳性能。DeepSeek-V3针对AI推理进行了优化。业内人士分析认为,AMD与DeepSeek的合作将为AI推理领域带来全新的想象空间,有望打破“英伟达+OpenAI”联合主导的行业格局,改写游戏规则。

自去年底DeepSeek-V3发布以来,业内就展开了关于DeepSeek打破算力需求“怪圈”的讨论。近日,随着DeepSeek-R1在海外引发广泛热议,1月24日,英伟达股价大幅下跌3.12%。然而,1月26日,有网友反映DeepSeek服务器繁忙,提示服务不可用。但14时56分,证券时报记者实测发现,服务已恢复正常。

据媒体消息,DeepSeek回应称,1月26日下午确实出现了局部服务波动,但问题在极短时间内得到了解决。此次事件可能与新模型发布后访问量激增有关,而官方状态页并未将其标记为事故。DeepSeek-R1在后训练阶段大规模应用了强化学习技术,在标注数据极少的情况下,显著提升了模型推理能力。在数学、代码、自然语言推理等任务上,其性能已比肩OpenAI GPT-4正式版。

这一模型的发布,引发了海外AI圈众多科技大佬的广泛讨论。英伟达高级研究科学家Jim Fan在个人社交平台上表示:“我们正身处这样一个历史时刻:一家非美国公司正在延续OpenAI最初的使命——通过真正开放的前沿研究赋能全人类。这看似不合常理,但最有趣的结局往往最可能成真。”

在2025年达沃斯论坛上,AI初创公司ScaleAI创始人Alexandr Wang公开评论称,DeepSeek新模型的表现令人印象深刻,尤其是在模型推理效率方面,必须认真对待来自中国的这些发展。他还直言,DeepSeek的AI大模型性能大致与美国最好的模型相当。另一家被称为谷歌杀手的知名AI创业公司Perplexity的首席执行官Aravind Srinivas甚至直接评论道:“DeepSeek才配叫做OpenAI。”

DeepSeek这个AI领域的黑马,自去年底发布DeepSeek-V3以来就吸引了硅谷的广泛关注,并因其低调的作风被冠以“来自东方的神秘力量”的称号。新模型发布后,硅谷巨头们既兴奋又紧张。Meta员工在匿名社区Teamblind上爆料称,Meta的生成式人工智能团队正陷入恐慌,工程师们正在疯狂拆解DeepSeek,试图复制其中的一切。

同时,由于DeepSeek擅长“小成本办大事”,通过采用创新架构和优化算法,实现了更高经济性的训练效果和更高效的推理。DeepSeek-V3的总训练成本仅为550万美元左右,不到Llama-3 405B超6000万美元训练成本的十分之一。爆料帖还指出,Meta管理层正面临严峻的财务压力,该生成式AI部门数十位高管,每个人的年薪都超过了DeepSeek-V3的全部训练费用。如何向公司高层解释这种投入产出比,已成为他们的噩梦。

不仅硅谷巨头深受震动,英美多家主流媒体也纷纷聚焦DeepSeek。比如,《经济学人》指出:“目前训练一个美国大语言模型要花费数千万美元,而DeepSeek的支出不到600万美元。这种廉价训练正随着模型设计的发展改变整个行业,可能导致更多针对特定用途的专业模型涌现,打破赢家通吃的市场格局。”

《金融时报》也发布了题为“中国一家小小的AI创业公司如何让硅谷感到震惊”的文章,指出R1模型的发布在硅谷引发了一场激烈辩论,主题是包括Meta和Anthropic在内资源更雄厚的美国人工智能企业能否守住技术优势。文章还提到,DeepSeek没有从外部基金筹集资金,也没有采取重大举措将其模型商业化,其运作方式就像早期的DeepMind,专注于研究和工程。

在Mera员工爆料的匿名社区Teamblind上,证券时报记者发现已有多个帖子在讨论DeepSeek。除了模型成本与性能等方面的技术讨论外,还有股民发起了题为“英伟达是否应该为DeepSeek感到担忧”的投票。帖子还给出了一些背景信息,提示DeepSeek仅用不到600万美元在性能较弱的GPU上训练出了V3模型,效果直逼Meta的开源模型Llama。而且最新发布的R1模型足以媲美OpenAI的GPT-4模型。

事实上,自去年底DeepSeek发布V3模型以来,业界就注意到,DeepSeek的成功更大意义在于,可以通过软件优化在有限的硬件资源下实现顶尖的模型性能,减少对高端GPU的依赖。有观点认为,DeepSeek-V3极低的训练成本预示着AI大模型对算力投入的需求将大幅下降,这无疑将对全球AI算力的核心供应商英伟达构成利空。

据证券时报记者了解,大模型主要分为训练和推理两个阶段。训练是指用大量数据训练大模型,通常需要极高的计算能力和存储资源;推理是指将训练好的模型应用于实际任务。这二者采用的是不同的芯片。过去两年,各大厂商都在加紧训练大模型,算力主要体现在训练阶段,其中模型训练是英伟达GPU的优势所在。但随着模型基本训练成型及AI应用的爆发,算力的增长或将更侧重于推理侧。

同时,DeepSeek不仅将模型训练成本大幅降低,而且发布的新模型R1也同步开源了模型权重,公开了完整训练细节,挑战了闭源系统的优势。随着DeepSeek降低AI大模型技术及使用门槛,有市场人士担忧,DeepSeek R1的崛起可能会削弱市场对英伟达AI芯片需求的预期,对英伟达的市场地位和战略布局产生影响。

不过,也有观点认为,DeepSeek只计算了预训练的算力消耗,但数据配比、合成数据的生成和清洗等方面也需要消耗大量算力。同时,训练成本的降低未必意味着算力需求下降,只代表模型厂商可以使用性价比更高的方式去做模型极限能力的探索。中信证券研报也指出,DeepSeek-V3意味着AI大模型的应用将逐步走向普惠,助力AI应用广泛落地。同时,训练效率的大幅提升亦将助力推理算力需求高增。

(文章来源:证券时报)