AI加速发展推动产业链重塑,液冷技术成未来必选项
AI导读:
东北证券研报指出,AI领域将迎来加速发展,算力向推理侧转移将重塑产业链,光模块等连接环节将迎变化。同时,中国AI产业崛起,液冷技术凭借出色热控效能成AI数据中心未来必选项。
财中社12月31日电东北证券最新研报指出,AI领域即将迎来加速发展的元年,其核心在于推理技术的兴起,这将重塑产业链各环节之间的连接方式。据TIRIASresearch预测,未来推理算力占比将高达95%,而训练算力仅占5%。同时,IDC预测显示,未来五年,国内训练与推理算力的年复合增速将分别达到50%和190%,到2028年,推理算力的规模将远超训练算力。随着算力向推理侧转移,云厂商将更倾向于采用自研ASIC芯片,自主采购需求及自组网占比将显著提升,这将引发光模块、AEC、PCIE等连接环节的一系列变化。此外,中国AI产业的崛起也预示着国产算力领域的军备竞赛已经拉开帷幕。
在光模块市场方面,云厂商自主采购需求的提升将驱动该市场在2025年继续保持高速增长。据LC数据预测,2024年,AI集群用以太网光模块市场规模将实现翻倍,2025年和2026年也将保持强劲增长势头。到2026年,4×100G光模块市场规模有望达到40亿美元,而8×100G光模块市场规模则将超过70亿美元。预计至2029年,1.6T、3.2T、LPO及CPO等产品的合计销售规模将达到100亿美元。随着推理需求的增长,谷歌、Meta、亚马逊等CSP厂商在推理网络建设上的独立采购需求将从2025年开始显著增长,B300的推出也进一步释放了采购自主权,使得客户能够以相同的资金购买更多的算力。
在连接基座方面,推理自组网需求的增加将带动Scale Out网络AEC用量以及Scale Up网络PCIe应用的增加。推理技术追求低延迟和高吞吐,CSP自组网趋势下,以UALink为代表的Scale Up协议(基于PCIE)和以UEC为代表的Scale Out协议(以太网)的渗透速度正在加快,私有协议(IB、NVLink)正在向更开放的协议(以太网、PCIE)转变,客户的采购自主权得到提升(交换机、光模块、铜缆)。在第一层互连场景下,通过增加retimer芯片扩展传输距离的AEC凭借其高可靠性和稳定性、低功耗及低成本等优势,有望被广泛采用。在柜内连接方面,PCIE将成为NVLink及NVSwitch的替代品。
东北证券认为,随着AI数据中心算力需求的不断增长,能耗攀升与热量管理成为亟待解决的问题。液冷技术凭借其出色的热控效能和巨大的节能潜力,将成为AI数据中心未来的必然选择。液冷渗透率的提升将同步带动UQD快接头市场的增长。预计2023年至2025年,我国IDC液冷连接器市场规模将分别达到1.08亿元、2.05亿元和4.37亿元。未来,随着液冷系统渗透率的持续提升,UQD市场规模有望实现快速增长。在电源方面,AI服务器的功率及电源需求远高于普通服务器,要求高功率密度和高转换率。目前,台湾厂商因先发优势占据了大部分市场份额,但大陆电源厂商凭借成本控制和服务能力优势,有望在未来迅速抢占市场份额。
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。