阿里云大模型价格战升级,通义千问视觉理解模型降价超80%
AI导读:
阿里云宣布通义千问视觉理解模型降价超80%,Qwen-VL-Plus和Qwen-VL-Max价格大幅下调,降价后1元钱可处理大量图片,旨在通过技术红利惠及用户。
大模型价格战再度升级,市场掀起新一轮降价风暴。
继字节跳动旗下豆包视觉理解模型在12月18日大幅降价至0.003元/千Tokens后,阿里云于12月31日震撼宣布,其通义千问视觉理解模型全线降价超过80%,即刻生效!这一举措再次刷新了行业价格底线。
此次降价是阿里云在2024年内针对大模型的第三轮降价行动,前两轮分别在5月和9月实施。Qwen-VL-Plus降价幅度高达81%,调整后价格仅为0.0015元/千tokens,创全网最低记录;而高性能版本的Qwen-VL-Max也降价85%,至0.003元/千tokens。
按照阿里云降价后的最新价格计算,用户仅用1元钱即可处理最多约600张720P图片或1700张480P图片,相比豆包大模型降价后的处理能力有了显著提升,豆包大模型1元钱仅能处理284张720P图片。
Qwen-VL作为开源社区中最受欢迎的多模态大模型,具备卓越的视觉推理能力,不仅能识别各种分辨率和长宽比的图片,还能理解长达20分钟以上的视频内容,并具备操作手机和机器人的视觉智能能力,可广泛应用于手机、汽车等终端的视觉识别场景。
阿里云百炼团队相关负责人指出:“此次降价得益于阿里云基础设施和模型结构的持续优化,以及大模型调用量的指数型增长带来的规模效应。我们致力于第一时间将技术红利传递给所有用户。”
在提升推理效率方面,阿里云构建了弹性强大的AI算力调度系统,结合百炼分布式推理加速引擎,显著降低了模型推理成本,并加快了推理速度。
2024年以来,通义千问团队持续优化视觉理解效果,使得Qwen-VL成为百炼平台上增长最快的模型。
此外,为进一步降低用户在使用文本大模型API时的成本,阿里云百炼还创新推出了KV Cache计费模式。该模式通过自动缓存上下文避免重复计算,进一步削减了模型调用成本,特别适用于长文本处理、代码补全、多轮对话及特定文本摘要等场景。
(文章来源:中国基金报)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。