AI导读:

中国科学院院刊发布报告指出,人工智能技术因算法偏见、数据泄露等风险成为新型犯罪温床,现有法律规制与技术防范存在漏洞,需完善法律框架、强化技术防范、加强监管与人才培养,并拓宽国际合作。

  近年来,人工智能技术被不法分子利用实施犯罪的案例正急剧上升,引发了社会各界对防范与治理该领域犯罪的深切关注。中国科学院院刊于1月7日发布的《人工智能犯罪与我国对策研究》报告指出,人工智能因算法偏见、数据泄露、虚假内容制作及不当利用等风险,正成为新型犯罪的温床。

  报告强调,当前法律规制与技术防范措施尚存不足,为犯罪活动提供了可乘之机。面对这一挑战,我国需完善法律框架,强化技术防范,加强监管力度,培养专业人才,并拓宽国际合作,以全面提升对人工智能犯罪的防范与治理能力。

  数据显示,随着人工智能技术的日益成熟和普及,犯罪分子开始频繁利用这一高科技手段实施犯罪。奇安信集团的《2024人工智能安全报告》揭示,2023年基于人工智能的深度伪造欺诈和钓鱼邮件分别激增3000%和1000%。未来,人工智能犯罪案件预计将持续增加,对社会治理构成严峻考验。

  报告特别指出,与传统犯罪相比,人工智能生成的犯罪内容更具真实性,使受害人难以辨别。例如,一起涉及“AI换脸”的诈骗案中,犯罪分子利用深度伪造技术冒充公司高管,诱骗受害职员转账2亿港币。此外,由人工智能系统决策导致的独立犯罪行为,如自动驾驶系统或智能机器人的异常行为,也构成了新的风险点。

  尽管我国已出台一系列法律和政策,探索人工智能犯罪的法治路径,但研究发现,人工智能安全法律法规体系仍需完善,监管措施尚未健全,国际合作面临挑战。为此,报告建议建立高级别领导指挥体系,制定专门性法律,并采取动态更新机制,以适应技术发展的变化。同时,应建立责任追究机制,完善处罚体系,并创设动态的人工智能分级分类监管机制。

  在人才培养方面,报告建议优先在公共安全相关高校设置人工智能安全专业,加强案例解析与培训,建立专属数据库,实时共享犯罪信息,以有效打击跨境人工智能犯罪。

(文章来源:第一财经)