人工智能犯罪治理面临新挑战
AI导读:
中国科学院院刊发布报告指出,人工智能技术因算法偏见、数据泄露等风险成为新型犯罪温床,现有法律规制与技术防范存在漏洞,需完善法律框架、强化技术防范、加强监管与人才培养,并拓宽国际合作。
近年来,人工智能技术被不法分子利用实施犯罪的案例正急剧上升,引发了社会各界对防范与治理该领域犯罪的深切关注。中国科学院院刊于1月7日发布的《人工智能犯罪与我国对策研究》报告指出,人工智能因算法偏见、数据泄露、虚假内容制作及不当利用等风险,正成为新型犯罪的温床。
报告强调,当前法律规制与技术防范措施尚存不足,为犯罪活动提供了可乘之机。面对这一挑战,我国需完善法律框架,强化技术防范,加强监管力度,培养专业人才,并拓宽国际合作,以全面提升对人工智能犯罪的防范与治理能力。
数据显示,随着人工智能技术的日益成熟和普及,犯罪分子开始频繁利用这一高科技手段实施犯罪。奇安信集团的《2024人工智能安全报告》揭示,2023年基于人工智能的深度伪造欺诈和钓鱼邮件分别激增3000%和1000%。未来,人工智能犯罪案件预计将持续增加,对社会治理构成严峻考验。
报告特别指出,与传统犯罪相比,人工智能生成的犯罪内容更具真实性,使受害人难以辨别。例如,一起涉及“AI换脸”的诈骗案中,犯罪分子利用深度伪造技术冒充公司高管,诱骗受害职员转账2亿港币。此外,由人工智能系统决策导致的独立犯罪行为,如自动驾驶系统或智能机器人的异常行为,也构成了新的风险点。
尽管我国已出台一系列法律和政策,探索人工智能犯罪的法治路径,但研究发现,人工智能安全法律法规体系仍需完善,监管措施尚未健全,国际合作面临挑战。为此,报告建议建立高级别领导指挥体系,制定专门性法律,并采取动态更新机制,以适应技术发展的变化。同时,应建立责任追究机制,完善处罚体系,并创设动态的人工智能分级分类监管机制。
在人才培养方面,报告建议优先在公共安全相关高校设置人工智能安全专业,加强案例解析与培训,建立专属数据库,实时共享犯罪信息,以有效打击跨境人工智能犯罪。
(文章来源:第一财经)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。