人工智能亟需法律规范
AI导读:
人工智能技术迅猛发展,但伴随着滥用、数据隐私泄露和责任界定不清等问题。广东省政协委员林翠珠建议尽快出台规范人工智能行业法律法规,明确发展原则,确立主体范围,建立责任保险制度,并根据风险等级实行AI准入管理。
随着人工智能技术的迅猛发展,其对社会各个领域的影响日益深远。在医疗领域,AI技术为医生提供了精准辅助,显著提高了诊断的准确性和效率;在交通出行方面,智能调度系统有效缓解了交通拥堵问题;在娱乐视觉领域,AI技术则实现了个性化定制,提升了用户体验;而在金融行业中,AI更是成为风险预测与防控的重要工具,助力金融机构提高风险防控能力,加速行业创新升级。
然而,人工智能技术的快速发展也伴随着诸多挑战和问题。近年来,AI换脸技术的滥用、数据隐私泄露事件频发以及责任界定模糊不清等问题逐渐凸显,给社会带来了潜在的风险和不安。这些问题不仅损害了用户的权益,也阻碍了人工智能技术的健康发展。
广东省政协委员、广东恒福律师事务所创始合伙人林翠珠指出,当前人工智能领域尚处于一种无序的“野蛮生长”状态,亟需加强法律法规的规范和引导。在今年的省两会上,林翠珠带来了“关于尽快出台规范人工智能行业法律法规”的提案,旨在针对人工智能发展过程中的乱象与痛点,提出切实可行的解决方案。
林翠珠观察到,全球多个国家和地区已经开始着手制定人工智能的法律法规,如欧盟已通过了《人工智能法案》。相比之下,我国在此方面的立法工作相对滞后,这不仅影响了我国在全球人工智能治理领域的话语权,也给国内人工智能产业的健康发展带来了潜在风险。因此,她呼吁尽快启动规范人工智能行业法律法规的立法程序。
针对数据隐私与安全问题以及责任界定问题,林翠珠进一步分析道,当前的人工智能系统存在过度收集、滥用以及泄露用户数据的风险,同时在责任界定方面也存在诸多争议。这些问题可能导致一部分人工智能企业肆意扩张、滥用AI技术,也可能导致部分企业因担心潜在的法律责任而不敢大胆创新和应用人工智能技术。
为此,林翠珠建议明确人工智能发展的基本原则,如以人为本、安全可控、公平公正等,并确立人工智能活动的主体范围,包括人工智能研发企业、使用者、数据提供者、监管机构等各方的权利、义务和责任。同时,她呼吁建立人工智能责任保险制度,鼓励企业购买保险以分散潜在的法律责任风险,保障受害者能够及时获得赔偿。
此外,林翠珠还建议根据风险等级实行AI准入管理。她提出将AI系统分为四个风险类别,即最小风险、特定透明度风险、高风险和不可接受风险,并根据不同风险类别制定相应的法律法规和监管要求。例如,最小风险AI系统基本上不受法律法规约束,但鼓励采用行为准则;而高风险AI系统则必须遵守严格的要求,包括风险缓解系统、数据集的高质量、清晰的用户信息和人类监督等。
值得注意的是,林翠珠还特别提出相关的法律规定可以设置缓冲期,在不同的时间生效。例如,不可接受风险的AI系统可以在相关法律法规生效后6个月实施;高风险系统的相关规定比较严格,可以在相关法律法规生效后36个月实施。这一建议旨在既为市场主体提供规范其行为的法律依据,又给予市场一定的自我调节时间。
(文章来源:金羊网,图片来源于网络)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

