AI导读:

阿里云宣布通义千问视觉理解模型全线降价超80%,Qwen-VL系列价格创全网最低,这一举措标志着大模型市场的价格战再度升级。

  大模型市场的价格战再度升温,掀起新一轮风暴。

  在字节跳动旗下豆包视觉理解模型于12月18日率先将价格大幅下调至0.003元/千Tokens之后,阿里云紧随其后,于12月31日震撼宣布,其通义千问视觉理解模型全系列价格骤降超过80%,且即刻生效!这一举措无疑为市场投掷了一枚震撼弹。

  回顾2024年,阿里云已在5月和9月两度调整大模型价格,而此次降价,标志着阿里云在年内实现了三轮价格调整的重大举措。

  具体而言,Qwen-VL-Plus模型降价幅度高达81%,其输入价格已降至前所未有的0.0015元/千tokens,成为全网最低;而性能更为强劲的Qwen-VL-Max模型,其价格亦大幅下调至0.003元/千tokens,降价幅度更是达到了惊人的85%。

  以阿里云此次降价后的最新价格计算,用户仅需1元钱,即可处理约600张720P分辨率的图片,或高达1700张480P分辨率的图片,这一性价比极为突出。

  相比之下,按照豆包大模型降价后的价格,1元钱仅能处理284张720P分辨率的图片,差距一目了然。

  Qwen-VL作为开源社区中备受青睐的多模态大模型,凭借其卓越的视觉推理能力,能够轻松识别各种分辨率和长宽比的图片,同时,它还能理解长达20分钟以上的长视频内容,更具备自主操作手机和机器人的视觉智能体能力,这使得Qwen-VL在手机、汽车等多种终端视觉识别场景中均有着广泛的应用前景。

  阿里云百炼团队的相关负责人表示:“此次降价主要得益于阿里云在基础设施和模型结构上的持续优化,以及大模型调用量呈现指数型增长所带来的规模效应。我们始终致力于将技术的红利第一时间传递给所有用户。”

  在推理效率方面,阿里云更是构建了弹性十足的AI算力调度系统,并结合百炼分布式推理加速引擎,从而大幅降低了模型推理的成本,同时显著提升了推理速度。

  自2024年以来,随着通义千问团队对视觉理解效果的不断优化,Qwen-VL已成为百炼平台上增长最为迅速的模型之一。

  此外,为了更进一步降低用户在使用文本大模型API时的成本,阿里云百炼还创新性地推出了KV Cache计费模式。这一新模式通过自动缓存上下文的方式,有效避免了重复计算,从而进一步降低了模型调用的成本,尤其适用于长文本、代码补全、多轮对话、特定文本摘要等多种场景。

(文章来源:中国基金报,内容有删减,以实际发布为准)