AI导读:

DeepSeek发布新模型DeepSeek-R1并同步开源,引发全球AI科技圈关注。英伟达竞争对手AMD集成DeepSeek-V3模型,挑战行业格局。DeepSeek的低成本高性能模型让硅谷巨头感到震惊,同时也引发股民对英伟达市场地位的担忧。

DeepSeek,再次在海外科技界掀起轩然大波。自1月20日该中国AI创业公司发布新模型DeepSeek-R1并同步开源模型权重以来,其凭借卓越性能迅速吸引了全球AI科技圈的广泛关注。近日,包括《纽约时报》、《经济学人》及《华尔街日报》在内的多家英美主流媒体纷纷报道了DeepSeek的最新研究进展,并对其模型的出色性能给予了高度评价。CNBC更是直言:“DeepSeek-R1凭借超越美国顶尖同类模型的性能,以及更低的成本和算力消耗,已在硅谷引发恐慌。”

尤为引人注目的是,知名半导体公司AMD(英伟达的主要竞争对手)昨日宣布,已将DeepSeek-V3模型集成到其芯片产品Instinct MI300X GPU上,旨在与SGLang共同实现最佳性能。DeepSeek-V3针对AI推理进行了深度优化。业内人士分析指出,AMD作为全球领先的芯片制造商,与DeepSeek的此番合作将为AI推理领域带来全新的想象空间,并有望打破“英伟达+OpenAI”联合主导的行业格局,从而改写游戏规则。

自去年底DeepSeek-V3发布以来,业界便围绕其打破算力需求“怪圈”的话题展开了热烈讨论。而近日,随着DeepSeek-R1在海外引发广泛热议,英伟达股价在1月24日再度大幅下跌3.12%。

值得一提的是,1月26日,有网友反映DeepSeek服务器出现繁忙提示。但经证券时报记者14时56分实测,平台已恢复正常使用。

记者实测页面显示一切正常。

据媒体报道,DeepSeek对此回应称,1月26日下午确实出现了局部服务波动,但问题已在极短时间内得到解决。此次事件可能与新模型发布后访问量激增有关,而官方状态页并未将其标记为事故。

DeepSeek令硅谷巨头坐立不安

据DeepSeek介绍,其最新发布的DeepSeek-R1模型在后训练阶段大规模运用了强化学习技术,在仅有极少标注数据的情况下,显著提升了模型的推理能力。在数学、代码、自然语言推理等任务上,其性能已可与OpenAI GPT-4正式版相媲美。

该模型发布后,迅速引发了海外AI圈众多科技大佬的广泛讨论。例如,英伟达高级研究科学家Jim Fan在个人社交平台上发表推文称:“我们正身处这样一个历史时刻:一家非美国公司正在延续OpenAI最初的使命——通过真正开放的前沿研究赋能全人类。这看似不合常理,但最有趣的结局往往最可能成真。”

在近日举行的2025年达沃斯论坛上,AI初创公司Scale AI创始人Alexandr Wang对DeepSeek的新模型给予了高度评价,称其表现令人印象深刻,尤其是在模型推理效率方面。他强调,我们必须认真对待来自中国的这些发展。另一家知名AI创业公司Perplexity(被誉为谷歌杀手)的首席执行官Aravind Srinivas甚至直接表示:“DeepSeek才配叫做OpenAI。”

自去年底发布DeepSeek-V3以来,这位AI领域的黑马便吸引了硅谷的广泛关注,并因其低调的作风而被誉为“来自东方的神秘力量”。新模型发布后,硅谷巨头们陷入了既兴奋又紧张的状态。一则来自Meta员工在匿名社区Teamblind的爆料称,Meta的生成式人工智能团队正陷入恐慌。帖子进一步透露,目前Meta工程师们正在疯狂拆解DeepSeek,试图复制其中的一切。

同时,由于DeepSeek擅长“小成本办大事”,通过采用创新架构和优化算法,实现了具有更高经济性的训练效果和更高效的推理。DeepSeek-V3的总训练成本仅为550万美元左右,不到Llama-3 405B超6000万美元训练成本的十分之一。该爆料帖还称,Meta管理层正面临严峻的财务压力,该生成式AI部门数十位高管,“每个人的年薪都超过了DeepSeek-V3的全部训练费用。如何向公司高层解释这种投入产出比,已成为他们的噩梦”。

不仅硅谷巨头深受震动,英美多家主流媒体也聚焦DeepSeek展开了深入报道。例如,英媒《经济学人》指出:“目前训练一个美国大语言模型要花费数千万美元,而DeepSeek的支出不到600万美元。这种廉价训练正随着模型设计的发展改变整个行业,可能导致更多针对特定用途的专业模型涌现,从而打破赢家通吃的市场格局。”

《金融时报》也发表了题为“中国一家小小的AI创业公司如何让硅谷感到震惊”的文章。文章指出:“R1模型的发布在硅谷引发了一场激烈辩论,主题是包括Meta和Anthropic在内资源更雄厚的美国人工智能企业能否守住技术优势。”“DeepSeek没有从外部基金筹集资金,也没有采取重大举措将其模型商业化。DeepSeek的运作方式就像早期的DeepMind,专注于研究和工程”。

股民焦虑:DeepSeek利空英伟达?

在Meta员工爆料的匿名社区Teamblind上,证券时报记者发现已有多个帖子在讨论DeepSeek。除了模型成本与性能等方面的技术讨论外,还有股民发起了题为“英伟达是否应该为DeepSeek感到担忧”的投票。帖子还给出了一些背景信息,提示DeepSeek仅用不到600万美元在性能相对一般的GPU上训练出了V3模型,效果直逼Meta的开源模型Llama。而且,其最新发布的R1模型足以媲美OpenAI的GPT-4模型。

事实上,自去年年底DeepSeek发布V3模型以来,业界便注意到,DeepSeek的成功背后更大的意义在于,其能够通过软件优化,在有限的硬件资源下实现顶尖的模型性能,从而减少对高端GPU的依赖。有观点认为,DeepSeek-V3极低的训练成本预示着AI大模型对算力投入的需求将大幅下降,这无疑将对全球AI算力的核心供应商英伟达构成利空。

据证券时报记者了解,大模型主要分为训练和推理两个阶段。训练是指用大量数据训练大模型,通常需要极高的计算能力和存储资源;推理是指将训练好的模型应用于实际任务(如提问并生成文本、识别图片与视频等)。这两者采用的是不同的芯片。过去两年,各大厂商都在加紧训练大模型,算力主要体现在训练阶段,而模型训练正是英伟达GPU的优势所在。然而,随着模型基本训练成型及AI应用的爆发,算力的增长或将更侧重于推理侧。

同时,DeepSeek不仅大幅降低了模型训练成本,而且发布的新模型R1也同步开源了模型权重,并公开了完整的训练细节,从而挑战了闭源系统的优势。随着DeepSeek将AI大模型技术及使用门槛降低,有市场人士担忧,DeepSeek R1的崛起可能会削弱市场对英伟达AI芯片需求的预期,进而对英伟达的市场地位和战略布局产生影响。

不过,也有观点认为,DeepSeek仅计算了预训练的算力消耗,而数据配比、合成数据的生成和清洗等方面也需要消耗大量算力。同时,训练成本的降低未必意味着算力需求下降,只代表模型厂商可以使用性价比更高的方式去探索模型的极限能力。中信证券研报也指出,DeepSeek-V3意味着AI大模型的应用将逐步走向普惠,助力AI应用广泛落地。同时,训练效率的大幅提升亦将推动推理算力需求的高增。

(文章来源:创业资本汇)