字节开源COMET技术,MoE训练效率大幅提升
AI导读:
字节跳动豆包大模型团队发布针对MoE架构的通信优化系统COMET,助力大模型训练优化,已应用于万卡级生产集群,节省数百万GPU小时资源。AI行业加速开源最新技术,构建生态,扩大市场份额。
训练大模型的成本高昂,一直是行业的痛点,各大企业都在探索通过技术创新降低成本。3月10日,字节跳动豆包大模型团队发布了针对MoE(混合专家模型)架构的通信优化系统COMET,该系统利用细粒度计算-通信重叠技术,有效优化了大模型的训练。据豆包大模型团队介绍,COMET已应用于万卡级生产集群,累计节省了数百万GPU(图形处理器)小时资源。此外,COMET还可与豆包大模型团队此前发布的新一代稀疏模型架构UltraMem协同优化。
一位头部大模型算法工程师在接受《每日经济新闻》记者采访时表示:“在万卡集群上做测试的经验,国内很少有,很可能只有字节具备这一经验,并且他们还分享了这一经验。虽然目前大部分国内公司都没有万卡,但随着行业发展,这一技术和经验将变得非常重要。”
自Deepseek的开源模型R1在全球走红以来,国内的大模型企业开始更频繁地开源技术。北京市社会科学院副研究员王鹏指出,大模型公司选择开源优秀技术,有助于扩大市场份额、吸引合作伙伴、构建生态、提升品牌形象和知名度。
MoE训练效率提升1.71倍,字节开源COMET技术
3月1日,DeepSeek在知乎公布了模型降本增效的技术细节,理论利润率高达545%。DeepSeek通过MoE架构的创新,大幅降低激活参数比,使同等效果的大模型所需算力明显下降。而豆包团队注意到,MoE架构的稀疏特性导致计算和通信间的依赖复杂,分布式训练面临巨大通信开销。
针对这一问题,豆包大模型团队发布了COMET系统。COMET通过共享张量依赖解析机制,将通信与计算的最小单元对齐,并通过动态负载分配算法,消除跨设备通信的等待延迟。豆包大模型团队表示,COMET在大规模MoE模型上可实现单层1.96倍加速,端到端平均1.71倍效率提升,已应用于万卡级生产集群,累计节省数百万GPU小时资源。
随着AI行业竞争的加剧,各大企业纷纷开源最新技术,争夺“源神”地位。DeepSeek因持续开源核心技术而被业内瞩目,国内大模型厂商也加速跟进开源行动。阶跃星辰、MiniMax等AI初创公司,以及阿里等互联网巨头都积极参与开源热潮。
开源优秀技术可以获得更多关注度,吸引更多企业和开发者进行二次开发,有助于构建生态。然而,也有观点认为,开源模式虽不能直接创造利润,但能带来用户,对于互联网企业而言,流量比利润更为重要。
(文章来源:每日经济新闻)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。