AI导读:

华为公布AI模型量化专利,旨在减少AI模型内存占用。同时,华为与DeepSeek合作深化,ModelEngine全面支持DeepSeek系列模型本地部署,助力AI应用快速落地。

【导读】华为公布AI模型量化专利,旨在缩减AI模型内存占用,推动技术创新。

华为在人工智能(AI)领域的布局再获突破。据天眼查信息显示,华为技术有限公司近期公布的“人工智能模型的量化方法、处理系统和量化单元”专利,为减少AI模型内存占用提供了创新解决方案。

2025年以来,华为在AI领域的专利公布数量已达到26项,彰显了其在该领域的深厚积累和持续创新力。2月5日,华为董事长梁华在广东省高质量发展大会上强调,AI技术正处于加速发展阶段,抓住这一新机遇的关键在于创新。

值得注意的是,华为近期与DeepSeek的合作进一步加深。华为ModelEngine已全面支持DeepSeek全系列模型的本地部署,同时,DeepSeek系列新模型也在昇腾社区正式上线,为用户提供更丰富的AI模型选择。

华为AI量化专利详解

此次公布的专利摘要显示,该专利涉及AI模型的量化方法、处理系统、量化单元和计算设备。AI模型作为利用数据和算法对特定领域或任务进行建模和解决问题的工具,已在机器翻译、问答系统、语音识别和文本生成等多个领域得到广泛应用。

随着AI技术的飞速发展,模型规模不断增大,参数量和内存占用也随之增加,导致计算复杂度提升。为解决这一问题,华为此次申请的专利提出了一种创新的AI模型量化方法。

具体而言,量化单元可根据运行AI模型的计算设备中各个计算单元的处理粒度,将量化矩阵分割成多个适用于各计算单元处理粒度的分块量化矩阵。通过量化处理,得到量化后的分块量化矩阵,并存储在存储器中,从而有效减少AI模型的内存占用。

这种方法不仅适用于权重矩阵,还可应用于激活矩阵,实现了对AI模型权重和激活的实时量化,提高了模型的运行效率。

华为与DeepSeek合作深化

在AI技术不断创新和应用不断拓展的背景下,华为与DeepSeek的合作日益紧密。2月6日,华为宣布其DCS AI全栈解决方案中的ModelEngine已全面支持DeepSeek大模型R1&V3及蒸馏系列模型的本地部署与优化,助力客户AI应用快速落地。

ModelEngine作为大模型训练、推理和应用开发的综合性AI平台,提供从数据预处理到模型训练、优化及部署的一站式服务。用户通过ModelEngine可以体验DeepSeek的高效推理能力,开发者则可实现对DeepSeek系列模型的一键部署,大幅降低企业AI应用门槛。

此外,华为旗下多个业务已相继与DeepSeek开展合作。例如,基于原生鸿蒙操作系统的小艺助手App已接入DeepSeek-R1 Beta版,升级至原生鸿蒙的华为用户可通过特定路径与DeepSeek进行对话。

同时,DeepSeek系列模型如DeepSeek-R1、DeepSeek-V3、DeepSeek-V2及多模态大模型Janus-Pro等已在昇腾社区正式上线,支持一键获取和快速部署,为用户提供更快、更高效、更便捷的AI开发和应用体验。

DeepSeek系列模型在AI领域引起了热烈反响,其多项技术创新提升了模型性能与效率,为AI技术的进一步发展注入了新的活力。

(文章来源:中国基金报,有删改)