AI导读:

3月26日,博鳌亚洲论坛2025年年会上,各界专家就如何平衡推进人工智能应用与治理进行了深入探讨。清华大学张亚勤、中国科学院曾毅等专家分享了关于AI安全风险、安全护栏建设、伦理安全等观点。

  在人工智能快速发展的当下,如何平衡推进其应用与治理?3月26日,博鳌亚洲论坛2025年年会上,各界专家对此进行了深入探讨。

  清华大学讲席教授张亚勤在会上指出:“在广泛运用Agent(智能体)后,AI的安全风险显著上升。智能体虽具备自我规划、学习能力,但其带来的风险不容小觑,包括可控风险与被恶意利用的风险。随着AI从信息智能向物理智能、生物智能发展,风险将进一步加剧,因此,在使用智能体时需设定明确的安全界限。”

  中国科学院自动化研究所研究员曾毅分享道:“去年我曾倡议暂停6个月的人工智能大模型研究,以加强安全护栏建设。这一倡议并非反对AI研究,而是指出安全护栏构建速度滞后于AI发展。经过一年的探索,我们已初步找到构建安全护栏的方法。”

  曾毅强调,模型能力的提升并不等同于安全能力的自然增强。尽管国内AI大模型在认知与求解能力上与GPT系列相当,但在伦理框架上仍有提升空间。研究显示,提升AI大模型安全能力对其求解能力影响甚微,表明安全与发展并非矛盾关系,可在确保AI安全的同时保持其能力不受损。

  中国社会科学院大学教授江小涓指出,AI治理的落地与实践是当前最大挑战。她认为,AI治理需从可落地角度出发,以能否提高生产力和公平分享发展成果为标准。AI发展无疑能提高劳动生产率,但如何确保成果公平分享仍需解决就业与分配问题。她呼吁,当技术导致价值观改变时,我们应积极适应而非固守原则。

  江小涓还提到,Deepseek的出现减轻了人们对AI大模型发展的担忧,将AI从垄断产业转变为竞争产业,形成了传统市场经济中的竞争格局。她相信,市场竞争将自发解决许多问题。

(文章来源:澎湃新闻)