AI导读:

国联民生证券报告称,字节跳动豆包大模型团队提出全新稀疏模型架构UltraMem,解决MoE推理时高额访存问题。中兴努比亚手机率先内嵌DeepSeek-R1到操作系统,国内模组厂商积极支持。DeepSeek-R1与UltraMem有望降低模型成本,推动端侧部署。

  国联民生证券发表研究报告称,科技领域迎来新突破。

  字节跳动豆包大模型团队提出了全新的稀疏模型架构UltraMem。这一架构显著优化了MoE推理时的访存问题,推理速度较MoE架构提升2-6倍,推理成本最高降幅达83%。研究还揭示了UltraMem的ScalingLaw,证明其不仅具有卓越的Scaling特性,还在性能上超越了MoE。实验显示,训练规模达2000万value的UltraMem模型,在同等计算资源下,实现了业界领先的推理速度和模型性能,为构建更大规模的value或expert模型提供了新途径。

  AI技术在手机领域的应用也取得新进展。中兴努比亚手机率先将大模型内嵌到操作系统中,预计后续其他厂商将跟进。中兴努比亚星云AI全尺寸内嵌DeepSeek-R1,并在努比亚Z70Ultra机型上线,带来多项优势:直接调用DeepSeek-R1,简化操作流程;与努比亚Z70Ultra星云AI多模态能力无缝交互;与努比亚AI耳机等智能设备互联,实现语音唤醒。

  国内模组厂商积极支持DeepSeek模型。美格智能推出AIMO智能体产品,加速DeepSeek-R1模型在端侧的落地应用及端云结合方案。移远通信在边缘计算模组SG885G上成功运行DeepSeek-R1蒸馏小模型,生成Tokens速度超每秒40个。广和通高算力AI模组及解决方案已全面支持小尺寸的DeepSeek-R1模型。未来,这些技术有望在自动驾驶、机器人控制、智能制造、智慧医疗、AI智能体等场景广泛应用。

  DeepSeek-R1模型的成功发布及豆包提出的UltraMem架构,有望降低推理侧模型成本,推动模型在端侧的部署。

(文章来源:财中社)