AI导读:

AI大模型广泛应用于智能客服、写作等领域,但面临数据法律风险,包括著作权侵权、个人信息泄露等。文章深入剖析这些风险,并提出完善法律规制体系、运用技术手段、强化保障措施等应对策略,以实现智能化科技创新与社会公共利益的动态平衡。

  在科技飞速发展的当下,AI大模型无疑是最耀眼的创新成果之一。它广泛应用于智能客服、智能写作、自动驾驶、医疗影像诊断等众多领域,深度融入人们的生活与工作,为社会带来了前所未有的便利与效益。然而,繁荣背后潜藏危机,AI大模型在训练和应用过程中,面临着一系列复杂的数据法律风险。这些风险不仅关乎个人隐私、企业核心利益,更对社会的安全稳定和长远发展构成威胁。深入剖析并妥善应对这些风险,已成为推动AI大模型技术长远发展的关键所在。

  一、AI大模型训练环节的数据法律风险

  AI大模型训练离不开海量数据,这些数据来自公开数据集、网络爬取、用户生成内容等多个渠道。但多元的数据来源,也为AI大模型带来了侵权、数据偏差及信息泄露等法律风险。近年来,涉及AI大模型训练中的著作权侵权纠纷频发,如《纽约时报》起诉OpenAI非法复制文章、美国作者起诉Anthropic未经授权使用书籍训练大模型等。同时,大模型预训练数据中往往包含大量个人信息,未经用户同意使用将违反个人信息保护规则。此外,数据偏差风险也不容忽视,低质量数据可能导致模型预测和决策错误,甚至引发安全事故。

  二、AI大模型应用场景中的数据风险类型

  在AI大模型的实际应用中,同样存在多种数据风险。从知识产权角度看,AI生成的图像或文本可能构成侵权。此外,AI生成的内容还可能包含虚假信息、误导性内容,对社会秩序和公共利益造成损害。AI大模型还存在被恶意利用的风险,如模型越狱技术可逃避安全防护规则,生成不符合伦理道德、违法内容。随着AI大模型的广泛应用,网络安全和数据跨境传输问题也日益凸显。

  三、应对AI大模型数据法律风险的策略

  为应对AI大模型数据法律风险,需完善法律规制体系、运用技术手段并强化保障措施。在著作权方面,可考虑将作品类数据用于AI大模型预训练设定为合理使用方式之一,但需平衡著作权人与开发者利益。在个人信息保护方面,应调整相关法律规定,设定“默示同意”和“明示同意”规则。同时,需运用技术手段构建AI大模型安全防护闭环,提升数据安全性和准确性。此外,还应强化数据安全保障措施,建立数据监测和预警机制,确保AI大模型的可持续发展。

  AI大模型的应用场景已扩展至金融、医疗、制造等多个领域,但伴随的数据法律风险及社会问题不容忽视。为确保其可持续发展,我们需高度重视这些风险,完善规制机制,实现智能化科技创新与社会公共利益的动态平衡。

  (作者孙伯龙为杭州师范大学副教授、财税法研究中心主任,译有泽维尔·奥伯森所著《对机器人征税:如何使数字经济适应AI?》)

(文章来源:澎湃新闻)