DeepSeek爆火:七巨头集结,春节加速扩散,低成本策略获赞
AI导读:
DeepSeek春节期间爆火,腾讯云、百度智能云、阿里云等七巨头迅速接入,春节加速模型扩散。DeepSeek采取低价和开源策略,获得业界广泛关注,被认为是中国AI领域的黑马。
在2月2日至4日期间,腾讯云、百度智能云及阿里云相继宣布接入DeepSeek相关大模型,这一举动标志着大厂们在春节假期期间为深度求索公司的DeepSeek模型加班加点,仅是DeepSeek爆火现象的冰山一角。春节期间,英伟达市值蒸发创历史新高、OpenAI推出o3-mini推理模型、DeepSeek遭遇卡顿以及稳居榜单首位等新闻层出不穷,与深度求索直接或间接相关的资讯不断刷新。
在拥抱DeepSeek的浪潮中,海外企业行动更为迅速,微软、英伟达及亚马逊科技等早在1月底便已完成接入。据悉,DeepSeek以仅3%的成本超越了OpenAI,且实行开源策略,这意味着以极低的成本即可训练出高质量的AI模型。无论是为了满足客户的多元化需求,还是为了构建AI生态系统,云厂商迅速接入最热门的大模型无疑是一笔明智的投资。
七巨头齐聚一堂
为了让更多开发者便捷地使用DeepSeek,腾讯云再度发力,于2月4日在腾讯云TI平台推出“开发者大礼包”,其中包括DeepSeek全系模型的一键部署功能,部分模型还提供限免体验。此前,腾讯云已在2月2日宣布将DeepSeek-R1大模型一键部署至腾讯云“HAI”平台,开发者仅需3分钟即可接入调用,此举一改腾讯云以往的风格,展现了其高效的服务能力。
百度智能云则更早地打出了低价牌,于2月3日正式在千帆平台上架DeepSeek-R1和DeepSeek-V3模型,并推出了极具吸引力的低价方案,用户还可享受限时免费服务。据北京商报记者了解,目前腾讯云TI平台采用按量计费和包年包月两种计费模式,而百度智能云千帆平台则提供限时免费服务至2月18日24:00。
阿里云同样在春节期间便开始了紧锣密鼓的工作,以“大年初六,我们进入正题”为开场白,于2月3日宣布阿里云PAI ModelGallery支持云上一键部署DeepSeek-V3和DeepSeek-R1模型。对于费用问题,阿里云相关人士以全部部署好所需资源为例向北京商报记者介绍,部署DeepSeek-R1-Distill-Qwen-7B模型的价格约为11.1元/小时(以A10机型为例),而部署DeepSeek-R1模型的价格则约为316元/小时。模型部署成功后按实例运行时长计费,不满1小时按具体分钟数折算计费。目前,阿里云百炼平台也已上线DeepSeek-R1和DeepSeek-V3模型的API,且面向用户限时免费开放。
华为云则在2月1日宣布,硅基流动与华为云团队联合首发并上线基于华为云昇腾云服务的DeepSeek-R1/V3推理服务。在这场激烈的竞争中,海外公司凭借其先发优势占据了有利地位。
1月31日,英伟达宣布其NVIDIA NIM(一种云原生微服务技术)已支持DeepSeek-R1模型。同日,微软也宣布已将DeepSeek-R1正式纳入Azure AI Foundry,成为该企业级AI服务平台的重要组成部分。亚马逊云科技(AWS)同样宣布,企业和开发者可以在Amazon Bedrock和Amazon SageMaker AI中部署DeepSeek-R1模型,同时还可利用AWS Trainium等以经济高效的方式部署DeepSeek-R1-Distill模型。
春节期间的意外惊喜
在春节前,深度求索公司发布的DeepSeek-R1和DeepSeek-V3模型迅速走红,成为各大主流媒体和社交网站的热门话题。这些海内外大厂接入的,正是这两匹在春节前夕便备受瞩目的大模型“黑马”。
英国《经济学人》杂志评论称:“突然间,美国在人工智能领域相对于中国的领先地位,似乎比自ChatGPT走红以来的任何时候都要小。”这一评论的理由是“一家中国公司(即深度求索)发布了最新的令人印象深刻的大语言模型”。
从数据到用户体验,DeepSeek给人们留下了深刻的印象。七麦数据显示,自1月27日以来,DeepSeek在中国内地免费苹果总榜、应用榜以及效率榜上均位居榜首。在全球范围内,截至北京商报记者发稿时,DeepSeek已在72个地区的免费苹果总榜、应用榜以及效率榜上占据首位。
根据AI产品榜1月31日的数据,DeepSeek上线仅18天便达到了1500万的日活跃用户数,而ChatGPT达到同样的数据则用了244天。DeepSeek的增速是ChatGPT的13倍之多,因此被公认为全球增速最快的AI应用。
除了大模型本身的实力外,春节或许也是DeepSeek加速传播的原因之一。在除夕夜,一位在互联网大厂工作的员工将DeepSeek生成的拜年祝福分享到了家族群中,从而推动了DeepSeek的广泛传播。此外,DeepSeek还因回答“如何过好这一生”的问题而登上热搜榜首位,其回复充满了哲理和正能量。
“拼多多”式的发展路径
值得注意的是,《经济学人》指出:“中国的大语言模型并非最顶尖的,但它们的制造成本要低得多。”例如,阿里旗下的通义千问QwQ-32B-Preview于2024年11月推出,与美国的顶尖模型相比,差距不到三个月。而在一项标准评估中,DeepSeek更是排名第七。
报道称,DeepSeek是由2000多块二流芯片训练而来,而Meta的模型则使用了1.6万块顶尖芯片。在某些排名中,DeepSeek的表现甚至超过了Meta的模型。训练一个美国的大语言模型成本高达数千万美元,并且还在不断上升。而DeepSeek方面则表示,其训练成本不到600万美元。
对于DeepSeek火爆的原因,工信部信息通信经济专家委员会委员盘和林表示:“DeepSeek采取了低价和开源两条路并行的策略,尤其是开源策略,使得全球AI开发者不再受制于Meta的Llama模型。DeepSeek的出现对收费较高的ChatGPT等模型造成了较大冲击。同时,DeepSeek也是中国第一个打通国内外应用生态的产品。”
比达分析师李锦清认为:“模型成本的下降对产业链上的云服务厂商存在利好。”这正是云厂商火速接入DeepSeek的原因。从市场竞争力和商业价值的角度来看,接入DeepSeek模型有助于云厂商提升自身在AI领域的竞争力,吸引更多开发者和企业客户。通过提供DeepSeek模型的部署和应用服务,云厂商可以拓展业务范围,增加收入来源。
(文章来源:北京商报 记者:魏蔚)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。