AI导读:

中国初创公司蝴蝶效应发布的Manus号称全球首款通用AI智能体产品,揭示了AI从回答问题到执行任务的新发展方向。但AI能力增强也带来更大的安全风险,如何平衡发展与安全成为行业关注焦点。

  21世纪经济报道记者赖镇桃广州报道

  在Deepseek引发轰动后,中国又一款AI产品——蝴蝶效应公司发布的Manus,受到全球瞩目。这款号称全球首款通用AI智能体产品(AI Agent),正引领AI发展新潮流。

  据创始人介绍,Manus不同于传统AI助手,它能自主完成任务,从提供建议到直接交付成果。在视频展示中,Manus能像人类一样筛选简历,生成排名及候选人简介,甚至能编写Python程序进行购房预算推演,为购房人提供详尽报告。

  尽管Manus是否真正“通用”尚存争议,但它已揭示AI发展的新方向:从回答问题到执行任务。因此,Agent被视为AI商业化的下一个风口,但这也对模型能力提出更高要求,如多模态理解、跨环境能力等,同时引发更大的安全担忧。

  能力增强,风险加剧

  中国工程院院士张亚勤在博鳌亚洲论坛上表示,AI规模定律正在放缓,但正从预训练拓展到推理阶段,多模态成为新趋势。同时,AI正从信息智能走向物理智能和生物智能,无人驾驶等具身智能应用前景广阔,但人形机器人还需时日。

  复旦大学经济学教授杨燕青指出,AI智能体的快速推广将带来安全风险。张亚勤认为,智能体风险至少上升一倍,因其能自我规划、学习并达到目的,但中间路径不可控,存在不可控风险和被恶意利用的风险。

  设定红线与规则

  随着超级AI的出现,平衡发展与安全变得尤为重要。中国科学院研究员曾毅表示,去年曾倡议暂停六个月人工智能大模型研究,以构建安全护栏。目前,全球已达成AI安全发展的共识,但如何跨越国界、找到清晰的治理模式和国际协调机制仍是挑战。

  经济合作与发展组织(OECD)全球关系与合作主任绍尔表示,OECD确定的AI原则包括可信AI、以人为中心的AI,这些原则在G20峰会上也得到采用。张亚勤认为,AI安全性问题涉及信息安全、可控性和可信度三个层次,需要定义红线和边界,如智能体不能自我复制。

(文章来源:21世纪经济报道)