AI导读:

2025年,全球AI产业迎来转折点,DeepSeek开源大模型崛起,OpenAI承认闭源路线错误。开源AI路线取得阶段性胜利,开源的成本、透明度与灵活性等优势正在重塑大模型竞争格局。红帽与DeepSeek合作,催生新的商业模式。企业AI部署面临成本、复杂度和灵活性挑战,开源、混合式和小模型原则可帮助企业降低开发成本。

2025年,全球AI产业迎来重要转折点。Deepseek开源大模型迅速崛起,成为业界的焦点。OpenAI的创始人山姆·奥特曼罕见地承认其“闭源路线”存在历史错误,并宣布将发布GPT-2以来的首个开源模型。国内原本走闭源路线的互联网企业也开始转向开源生态。

这一系列事件标志着开源AI路线取得了阶段性的胜利。开源的成本、透明度与灵活性等优势,正在改变大模型的竞争格局。DeepSeek的火爆,更是加深了公众对开源路线的认可。

红帽作为开源领域的代表,其全球副总裁兼大中华区总裁曹衡康在接受采访时表示,红帽将DeepSeek视为“生态伙伴”,并强调他们的模型可以无缝运行在红帽平台上。这种合作催生了新的商业模式,企业可以在红帽的OpenShift AI平台上部署DeepSeek、Llama等开源模型,根据需求灵活分配算力。

尽管AI热度高涨,但多数企业仍处于探索和测试阶段。红帽数据显示,94%的企业正在进行生成式AI试点,预计未来3-5年才能实现AI投资回报。曹衡康指出,AI部署的挑战不仅在于技术本身,更在于如何将AI应用于实际生产环境,特别是在企业核心应用上。

曹衡康透露,红帽认为企业级AI应用更适合开源、混合式和专有小模型。目前,开源的价值愈发明显,因为AI需要大量尝试,多人多方向的探索速度远超单一公司。

在软件开发中,闭源或许可行;但在AI领域,开源能极大加速创新。全球开发者共同参与AI的创新与改进,效率远超闭源。同时,“混合式AI”意味着AI不仅限于云端,企业内部计算资源也可用于AI模型的开发和应用。

闭源模型通常绑定特定云服务商,存在“被技术绑架”的风险。混合云策略允许AI模型在本地数据中心、公有云或边缘设备间自由迁移。此外,行业专用的生成式AI模型需根据具体业务需求定制,而非通用大模型。

通用大模型并非总是最适合企业资源。企业需要贴合业务的专有模型,而非“万能模型”。开源、混合式和小模型原则,可帮助企业以更低成本开发高效AI模型,降低对高性能硬件的依赖。

曹衡康提到企业AI部署的三大挑战:成本、复杂度和灵活性。闭源大模型的训练和部署需要高昂算力,而“小模型”策略通过模型蒸馏和私有数据调优,可大幅降低硬件成本。通用大模型保留冗余功能,输出不可控;而“专有小模型”聚焦垂直场景,效率更高。

多数企业缺乏AI专业人才,难以驾驭复杂流程。红帽通过一体化平台,将模型训练、调优和部署集成到标准化工具中,降低数据需求量,支持自动化模型“瘦身”。灵活性至关重要,企业需在不同平台、硬件上灵活部署AI模型。

大模型的“幻觉问题”也是闭源路线的弊端。开源AI通过透明化调优与社区监督,降低模型幻觉率。开源模型的代码、参数和训练数据公开,企业可根据需求调整模型逻辑。

开源AI的胜利是AI规模化落地的优势路径。开放生态赋能企业,构建自由、透明、经济的AI未来。

(文章来源:21世纪经济报道)