AI导读:

面对人工智能的迅猛发展,如何平衡发展与监管备受讨论。专家曾毅表示,伦理安全研究是确保技术稳健发展的“方向盘”。同时,AI全球治理趋势也备受关注,欧盟和美国在监管上各有侧重,但长远来看,理性监管或将成为主流。

面对人工智能(AI)的迅猛发展,我们该如何平衡发展与监管?这一话题持续引发热议。3月28日,在2025年中关村论坛年会期间,中国科学院自动化研究所研究员、联合国人工智能高层顾问机构专家曾毅在接受南都记者采访时表示,伦理安全研究并非为了给AI装“刹车片”,而是确保技术稳健发展的“方向盘”。

曾毅指出,随着生成式AI的广泛应用,风险问题日益凸显。AI制造大量虚假信息,加剧人际冲突。有人沉迷于与大模型聊天,若不设安全护栏,AI风险将波及社会各方面,带来灾难性影响。因此,AI发展需大胆设想,但更需稳健推进。

同日闭幕的博鳌亚洲论坛2025年年会上,AI治理与发展同样成为热议话题。清华大学讲席教授、智能产业研究院(AIR)院长张亚勤指出,AI能力越强,其不可控、被滥用风险越高,凸显治理与安全的重要性。

然而,有人担忧过度强调伦理安全将限制AI创新。这一矛盾在巴黎AI峰会上被公开讨论。但曾毅认为,监管与创新并非矛盾。他的研究显示,提升大模型安全能力对模型问题求解能力影响甚微,说明在确保安全的情况下,AI能力几乎不受损。

谈及AI全球治理趋势,曾毅表示,欧盟采用分级方法监管生成式AI大模型,但存在技术不合理之处。同时,美国虽在AI监管上未全然放松,但强调协同共治。长远来看,美国或将在AI理性监管上有所动作。没有任何一个国家希望过度监管AI,但也没有一个国家会不做任何监管。

(文章来源:南方都市报)