博鳌论坛聚焦:人工智能应用与治理平衡之道
AI导读:
3月26日,博鳌亚洲论坛2025年年会上,各界专家就如何平衡推进人工智能应用与治理进行了深入探讨。清华大学张亚勤、中国科学院曾毅等专家分享了关于AI安全风险、安全护栏建设、伦理安全等观点。
在人工智能快速发展的当下,如何平衡推进其应用与治理?3月26日,博鳌亚洲论坛2025年年会上,各界专家对此进行了深入探讨。
清华大学讲席教授张亚勤在会上指出:“在广泛运用Agent(智能体)后,AI的安全风险显著上升。智能体虽具备自我规划、学习能力,但其带来的风险不容小觑,包括可控风险与被恶意利用的风险。随着AI从信息智能向物理智能、生物智能发展,风险将进一步加剧,因此,在使用智能体时需设定明确的安全界限。”
中国科学院自动化研究所研究员曾毅分享道:“去年我曾倡议暂停6个月的人工智能大模型研究,以加强安全护栏建设。这一倡议并非反对AI研究,而是指出安全护栏构建速度滞后于AI发展。经过一年的探索,我们已初步找到构建安全护栏的方法。”
曾毅强调,模型能力的提升并不等同于安全能力的自然增强。尽管国内AI大模型在认知与求解能力上与GPT系列相当,但在伦理框架上仍有提升空间。研究显示,提升AI大模型安全能力对其求解能力影响甚微,表明安全与发展并非矛盾关系,可在确保AI安全的同时保持其能力不受损。
中国社会科学院大学教授江小涓指出,AI治理的落地与实践是当前最大挑战。她认为,AI治理需从可落地角度出发,以能否提高生产力和公平分享发展成果为标准。AI发展无疑能提高劳动生产率,但如何确保成果公平分享仍需解决就业与分配问题。她呼吁,当技术导致价值观改变时,我们应积极适应而非固守原则。
江小涓还提到,Deepseek的出现减轻了人们对AI大模型发展的担忧,将AI从垄断产业转变为竞争产业,形成了传统市场经济中的竞争格局。她相信,市场竞争将自发解决许多问题。
(文章来源:澎湃新闻)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。