AI导读:

字节跳动算力需求持续高涨,豆包大模型不断迭代升级,应用场景不断拓展。据预测,字节跳动未来在AI算力方面的投入将持续增加,豆包大模型有望成为推动人工智能产业加速发展的新引擎。

据The Information报道,字节跳动计划在明年斥巨资70亿美元(折合人民币约511亿元)采购英伟达芯片,以增强其算力能力。然而,字节跳动官方迅速回应,称该报道信息“不实”。

尽管如此,市场对字节跳动算力需求的高预期并未因此消散。据Omdia数据显示,字节跳动已成为英伟达在中国乃至亚洲的最大客户,特别是在人工智能芯片领域。

微软在2024年的英伟达Hopper芯片订购量位居全球首位,达到48.5万枚,而字节跳动和腾讯则紧随其后,订单量各约23万枚。

自今年5月字节跳动发布豆包大模型以来,该模型已历经多次更新迭代,包括Doubao-pro、Seed-Music、视频生成模型及视觉理解模型等,且在语言能力、多模态理解与生成、模型推理、代码生成等方面均取得了显著提升。

近日,字节跳动豆包大模型对外公布了2024年全领域技术进展,其最新版通用模型Doubao-pro-1215已支持超过50个C端应用场景,并通过火山引擎服务了30多个行业,日均tokens调用量超4万亿,较发布初期增长了33倍。

海通证券12月30日发布的研报显示,豆包大模型通用模型能力已全面对标GPT-4,且在FlagEval模型评测的“对话模型”榜单中,豆包-pro32k版本更是荣登榜首。

随着豆包家族性能的不断提升,其应用场景持续拓展,算力需求也随之激增。据字节跳动火山引擎智能算法负责人吴迪预测,到2027年,豆包每天的Token消耗量将超过100万亿,是当前的100倍以上。民生证券则预计,2025-2026年间,豆包大模型将至少需要181万枚H20芯片。

从资本开支角度看,浙商证券指出,国内算力需求的爆发期已至,字节跳动在AI领域的投入巨大,2024年资本开支高达800亿元,接近百度、阿里、腾讯的总和(约1000亿元),其研发投入显著领先于同行业。

该券商进一步预测,2025年字节跳动的资本开支有望突破1600亿元,主要用于打造自主可控的大规模数据中心集群,其中约900亿元将投向AI算力采购,而剩余的700亿元则用于IDC基建及网络设备如光模块、交换机的采购。

从投资角度来看,国海证券12月30日的研报认为,豆包大模型有望成为继ChatGPT之后的又一重磅产品,预计将推动人工智能产业的加速发展,算力、AI应用、大模型等相关环节也将从中受益。