字节跳动算力需求高涨,豆包大模型引领AI发展
AI导读:
字节跳动澄清斥资购买英伟达芯片报道不实,但市场对字节跳动算力需求高预期依旧。字节跳动豆包大模型技术进展迅速,应用场景不断拓展,算力需求激增,预计将成为AI领域重量级产品。
据The Information报道,字节跳动计划于明年斥巨资70亿美元(折合人民币约511亿元)采购英伟达芯片,但字节跳动发言人迅速澄清,称该报道信息“不实”。
尽管如此,市场对于字节跳动在算力方面的强劲需求仍持高度乐观态度。据Omdia数据显示,字节跳动已成为英伟达在中国乃至亚洲地区人工智能芯片的最大买家。
报告进一步揭示,微软在2024年订购的英伟达Hopper芯片数量高达48.5万枚,领跑全球科技界,而字节跳动与腾讯则以各自约23万枚的订单量紧随其后。
自今年5月字节跳动推出豆包大模型以来,已相继完成了Doubao-pro、Seed-Music、视频生成模型及视觉理解模型等多项技术革新,其语言能力、多模态理解与生成、模型推理及代码生成能力均得到显著提升。
近期,字节跳动豆包大模型公布了2024年全领域技术进展,最新通用模型Doubao-pro-1215已支持超过50个C端应用场景,并通过火山引擎服务于30多个行业,日均tokens调用量突破4万亿,较发布之初增长了33倍。
据海通证券12月30日发布的研报显示,豆包大模型通用模型能力已全面赶超GPT-4,在FlagEval模型评测的“对话模型”榜单中,豆包-pro32k版本更是荣登榜首。
随着豆包家族性能的不断提升,其应用场景持续拓展,算力需求也随之激增。字节跳动火山引擎智能算法负责人吴迪曾预测,到2027年,豆包每天的Token消耗量将超过100万亿,是现在的100倍以上。民生证券预计,2025-2026年间,豆包大模型将至少需要181万枚H20芯片。
从资本开支角度看,浙商证券指出,国内算力需求的爆发期已经到来,字节跳动在AI领域的投入巨大,2024年资本开支高达800亿元,接近百度、阿里、腾讯三家总和(约1000亿元),研发投入显著领先于同行业。
该券商预测,2025年字节跳动的资本开支有望达到1600亿元,旨在构建自主可控的大规模数据中心集群,其中约900亿元将用于采购AI算力,700亿元则用于IDC基建及光模块、交换机等网络设备的采购。
从投资层面分析,国海证券12月30日的研报认为,豆包大模型有望成为继ChatGPT之后的又一重磅产品,预计将推动人工智能产业加速发展,算力、AI应用及大模型等相关环节均有望受益。
(文章来源:财联社)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。