博鳌亚洲论坛热议AI发展与治理平衡
AI导读:
博鳌亚洲论坛2025年年会分论坛聚焦AI应用与治理的平衡推进,来自多个国家的嘉宾就智能体风险、AI发展与安全护栏、伦理安全等方面进行了深入讨论,强调技术、市场、政策、伦理等多轨并进的重要性。
从信息智能迈向物理智能,乃至生物智能,人类如何紧握AI发展的主导权?
3月26日,博鳌亚洲论坛2025年年会分论坛——“AI:应用与治理的平衡之道”在海南BFA国际会议中心成功举办。来自中国、芬兰、以色列等国的嘉宾齐聚一堂,共商AI未来。
“智能体的广泛应用,无疑加剧了AI的风险。”中国工程院院士、清华大学讲席教授、清华大学智能产业研究院(AIR)院长张亚勤强调,智能体具备自我规划、学习、实践并达成目标的能力,是强大的技术工具。然而,其运行过程中的中间路径难以预测。“尽管智能算法并非完全的黑箱,但众多运行机理仍不为人类所熟知。”他指出,这种未知性显著提升了风险,如智能体可能在执行任务时展现出不可预见的行为,引发难以预估的后果。
AI正逐步从信息智能向物理智能和生物智能迈进。在此过程中,随着智能体应用领域的拓宽,AI将涉及更多复杂系统和领域,风险亦随之攀升。中国科学院研究员、人工智能安全与超级对齐北京市重点实验室主任、联合国人工智能高层顾问机构专家曾毅指出,人工智能的发展与“安全护栏”的构建并非相互制约。
“我们必须将伦理安全视为人工智能大模型发展的基石,作为不可动摇的第一性原理。”曾毅认为,唯有如此,在AI技术持续进步、智能体应用日益深入的背景下,才能确保其稳健前行,降低技术扩张带来的各类风险,保障人工智能始终为人类福祉服务。
然而,鉴于技术的复杂性,全球范围内人工智能缺乏统一的治理机构和协议。经济合作与发展组织全球关系与合作主任、经合组织七国集团、二十国集团和亚太经合组织协调人绍尔呼吁开发相关标准,并在联合国层面进行讨论,让各国充分表达意见。“我们应推动利益相关方对话,促进公共部门与私营部门的合作,兼顾用户需求。”他强调,人工智能的“安全栏”应使人们在享受AI带来的便利的同时,也具备相应的智能,以适应人工智能的发展。
从经济学视角出发,中国社科院大学教授、国务院原副秘书长江小涓指出,过去十年AI治理原则的“落地”有限。“技术能否被社会接纳,关键在于生产力提升与公平分配两大标准。”她强调,AI对就业和分配的影响需通过社会保障政策加以缓解,而非空谈“包容性”。
对于中国大模型Deepseek的开源,江小涓认为其最大贡献在于打破垄断:“当AI从寡头竞争转变为充分竞争的市场,许多问题将通过自发秩序得以解决。”
构建AI的“安全围栏”,需技术、市场、政策、伦理等多轨并进。无论是“全球标准”还是“本地实践”,最终目标都是让AI服务于人类,而非凌驾于人类之上。“让AI能力与AI安全协同发展,这才是我们所期望的。”曾毅总结道。
(文章来源:第一财经)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。