阿里云大模型再掀价格战,Qwen-VL降价超80%
AI导读:
阿里云宣布通义千问视觉理解模型全线降价超80%,Qwen-VL-Plus和Qwen-VL-Max价格大幅下降,成为市场焦点。降价得益于阿里云基础设施和模型结构的优化,以及大模型调用量增长带来的规模效应。
大模型价格战再次掀起波澜。
在字节跳动旗下豆包视觉理解模型于12月18日宣布价格大幅下调至0.003元/千Tokens后,阿里云于12月31日迅速跟进,宣布通义千问视觉理解模型全线降价超过80%,且立即生效!这一举措无疑为市场带来了更大的竞争压力。

这是阿里云在2024年内第三次对大模型进行降价,前两次分别在5月和9月。此次降价中,Qwen-VL-Plus的价格直降81%,降至0.0015元/千tokens,创下了全网最低价格;而高性能版本的Qwen-VL-Max也降至0.003元/千tokens,降幅高达85%。
按照阿里云降价后的最新价格计算,用户现在用1元钱可以处理大约600张720P图片或1700张480P图片,相较于豆包大模型降价后的价格,这一性价比无疑更具吸引力。

Qwen-VL作为开源社区最受欢迎的多模态大模型,具备强大的视觉推理能力,能够识别各种分辨率和长宽比的图片,理解长达20分钟以上的长视频,并具备自主操作手机和机器人的视觉智能体能力。这些特性使得Qwen-VL在手机、汽车等各类终端视觉识别场景中有着广泛的应用前景。
阿里云百炼相关负责人表示,此次降价主要得益于阿里云在基础设施和模型结构上的持续优化,以及大模型调用量指数型增长带来的规模效应。阿里云希望借此机会将技术红利第一时间释放给所有用户。
在推理效率方面,阿里云构建了极致弹性的AI算力调度系统,并结合百炼分布式推理加速引擎,大幅降低了模型推理成本并加快了推理速度。自2024年以来,随着通义千问团队不断优化视觉理解效果,Qwen-VL已成为百炼平台上增长最快的模型之一。
此外,为了进一步降低用户使用文本大模型API的成本,阿里云百炼还推出了全新的KV Cache计费模式。该模式通过自动缓存上下文来避免重复计算,从而进一步降低了模型调用成本。这一新模式特别适用于长文本、代码补全、多轮对话、特定文本摘要等场景。
(文章来源:中国基金报)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

