中国AI产品Manus引领新潮流,行业安全担忧加剧
AI导读:
中国初创公司蝴蝶效应发布的Manus号称全球首款通用AI智能体产品,揭示了AI从回答问题到执行任务的新发展方向。但AI能力增强也带来更大的安全风险,如何平衡发展与安全成为行业关注焦点。
21世纪经济报道记者赖镇桃广州报道
在Deepseek引发轰动后,中国又一款AI产品——蝴蝶效应公司发布的Manus,受到全球瞩目。这款号称全球首款通用AI智能体产品(AI Agent),正引领AI发展新潮流。
据创始人介绍,Manus不同于传统AI助手,它能自主完成任务,从提供建议到直接交付成果。在视频展示中,Manus能像人类一样筛选简历,生成排名及候选人简介,甚至能编写Python程序进行购房预算推演,为购房人提供详尽报告。
尽管Manus是否真正“通用”尚存争议,但它已揭示AI发展的新方向:从回答问题到执行任务。因此,Agent被视为AI商业化的下一个风口,但这也对模型能力提出更高要求,如多模态理解、跨环境能力等,同时引发更大的安全担忧。
能力增强,风险加剧
中国工程院院士张亚勤在博鳌亚洲论坛上表示,AI规模定律正在放缓,但正从预训练拓展到推理阶段,多模态成为新趋势。同时,AI正从信息智能走向物理智能和生物智能,无人驾驶等具身智能应用前景广阔,但人形机器人还需时日。
复旦大学经济学教授杨燕青指出,AI智能体的快速推广将带来安全风险。张亚勤认为,智能体风险至少上升一倍,因其能自我规划、学习并达到目的,但中间路径不可控,存在不可控风险和被恶意利用的风险。
设定红线与规则
随着超级AI的出现,平衡发展与安全变得尤为重要。中国科学院研究员曾毅表示,去年曾倡议暂停六个月人工智能大模型研究,以构建安全护栏。目前,全球已达成AI安全发展的共识,但如何跨越国界、找到清晰的治理模式和国际协调机制仍是挑战。
经济合作与发展组织(OECD)全球关系与合作主任绍尔表示,OECD确定的AI原则包括可信AI、以人为中心的AI,这些原则在G20峰会上也得到采用。张亚勤认为,AI安全性问题涉及信息安全、可控性和可信度三个层次,需要定义红线和边界,如智能体不能自我复制。
(文章来源:21世纪经济报道)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。