字节跳动算力需求激增,豆包大模型引领AI发展
AI导读:
字节跳动算力需求持续高涨,豆包大模型不断迭代升级,应用场景不断拓展。据预测,字节跳动未来在AI算力方面的投入将持续增加,豆包大模型有望成为推动人工智能产业加速发展的新引擎。
据The Information报道,字节跳动计划在明年斥巨资70亿美元(折合人民币约511亿元)采购英伟达芯片,以增强其算力能力。然而,字节跳动官方迅速回应,称该报道信息“不实”。
尽管如此,市场对字节跳动算力需求的高预期并未因此消散。据Omdia数据显示,字节跳动已成为英伟达在中国乃至亚洲的最大客户,特别是在人工智能芯片领域。
微软在2024年的英伟达Hopper芯片订购量位居全球首位,达到48.5万枚,而字节跳动和腾讯则紧随其后,订单量各约23万枚。
自今年5月字节跳动发布豆包大模型以来,该模型已历经多次更新迭代,包括Doubao-pro、Seed-Music、视频生成模型及视觉理解模型等,且在语言能力、多模态理解与生成、模型推理、代码生成等方面均取得了显著提升。
近日,字节跳动豆包大模型对外公布了2024年全领域技术进展,其最新版通用模型Doubao-pro-1215已支持超过50个C端应用场景,并通过火山引擎服务了30多个行业,日均tokens调用量超4万亿,较发布初期增长了33倍。
据海通证券12月30日发布的研报显示,豆包大模型通用模型能力已全面对标GPT-4,且在FlagEval模型评测的“对话模型”榜单中,豆包-pro32k版本更是荣登榜首。
随着豆包家族性能的不断提升,其应用场景持续拓展,算力需求也随之激增。据字节跳动火山引擎智能算法负责人吴迪预测,到2027年,豆包每天的Token消耗量将超过100万亿,是当前的100倍以上。民生证券则预计,2025-2026年间,豆包大模型将至少需要181万枚H20芯片。
从资本开支角度看,浙商证券指出,国内算力需求的爆发期已至,字节跳动在AI领域的投入巨大,2024年资本开支高达800亿元,接近百度、阿里、腾讯的总和(约1000亿元),其研发投入显著领先于同行业。
该券商进一步预测,2025年字节跳动的资本开支有望突破1600亿元,主要用于打造自主可控的大规模数据中心集群,其中约900亿元将投向AI算力采购,而剩余的700亿元则用于IDC基建及网络设备如光模块、交换机的采购。
从投资角度来看,国海证券12月30日的研报认为,豆包大模型有望成为继ChatGPT之后的又一重磅产品,预计将推动人工智能产业的加速发展,算力、AI应用、大模型等相关环节也将从中受益。
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。