AI导读:

阿里云宣布通义千问视觉理解模型全线降价超80%,Qwen-VL-Plus和Qwen-VL-Max降价幅度大,用户1元钱可处理大量图片,得益于基础设施和模型结构优化,推出全新KV Cache计费模式降低使用成本。

  大模型价格战再度升级。

  继字节跳动旗下豆包视觉理解模型在12月18日大幅降价至0.003元/千Tokens之后,阿里云于12月31日宣布,其通义千问视觉理解模型全面降价超过80%,降价措施即刻生效!这一举措再次引发了业界的广泛关注。

  这是阿里云在2024年内第三次对大模型进行降价调整,前两次分别在5月和9月。此次降价后,Qwen-VL-Plus的输入价格低至0.0015元/千tokens,创下了全网最低价格记录;而高性能版本的Qwen-VL-Max也降至0.003元/千tokens,降价幅度高达85%。

  根据阿里云此次降价后的价格计算,用户现在仅需1元钱即可处理大约600张720P分辨率的图片,或者1700张480P分辨率的图片。相比之下,豆包大模型降价后,1元钱仅能处理284张720P的图片。

  Qwen-VL作为开源社区中备受青睐的多模态大模型,以其卓越的视觉推理能力著称。它能够识别各种分辨率和长宽比的图片,理解长达20分钟以上的长视频内容,并具备自主操作手机和机器人的视觉智能能力。因此,Qwen-VL在手机、汽车等终端视觉识别场景中有着广泛的应用前景。

  阿里云百炼团队的相关负责人表示,此次降价主要得益于阿里云基础设施和模型结构的持续优化,以及大模型调用量的指数型增长所带来的规模效应。阿里云希望借此机会将技术红利迅速传递给所有用户。

  在推理效率方面,阿里云构建了高度弹性的AI算力调度系统,并结合百炼分布式推理加速引擎,成功降低了模型推理成本,并显著提升了推理速度。自2024年以来,随着通义千问团队对视觉理解效果的不断优化,Qwen-VL已成为百炼平台上增长最快的模型之一。

  为了进一步降低用户使用文本大模型API的成本,阿里云百炼还推出了全新的KV Cache计费模式。该模式通过自动缓存上下文信息来避免重复计算,从而进一步降低了模型调用成本。这一新模式特别适用于长文本处理、代码补全、多轮对话以及特定文本摘要等场景。