AI导读:

公安部公布打击“网络水军”典型案例,AI技术被用于非法牟利,包括合成和散布不实信息,公众人物和企业形象受害。治理需从AI工具入手,强化审核职责,网络平台需担起主体责任。

  近日,公安部公布了一系列依法打击“网络水军”违法犯罪的典型案例。据广州公安机关网安部门调查,叶某某等人为了赚取网络平台流量收益,招募兼职人员注册自媒体账号,并利用人工智能工具改写热门文章,批量发布虚假信息,累计发布引流图文信息高达50万篇。广州公安机关迅速行动,已抓获涉案犯罪嫌疑人6名。

  随着AI技术的普及,其应用范围和使用群体日益广泛。有人利用AI技术提升工作和学习效率,然而也有人借此非法牟利。这些不法行为包括合成和散布不实信息,以及合成公众人物形象进行带货、代言等。近期,张文宏、黄百鸣等公众人物的形象和声音被AI合成,并在未经允许的情况下被用于带货、代言。此外,演员“靳东”的形象也被AI合成,用于网络诈骗,雷军等企业家同样成为受害者。

  网络空间信息繁杂,真假难辨。这类虚假信息之所以能产生恶劣影响,一个重要原因在于其显著的负面性。重庆警方近期公布了5起利用AI工具造谣的典型案例,包括虚构的服务点遭暴力袭击、银行遭劫匪袭击以及工厂被大风摧毁等谣言。这些谣言借助人们的恐惧和共鸣心理,迅速传播并转化为流量利益。

  在AI时代,谣言还呈现出借助“权威”的新特征。以往,不法分子通过图片编辑软件伪造照片以假借名人身份行骗,但手段低劣,易于识破。然而,现在AI技术能够快速提取他人的外貌和声音,个性化定制视频,使得中老年人甚至Z世代青年在面对技术纯熟的AI合成视频时也难以准确分辨。

  这些特点已对公共情绪和舆论、名人和名企形象造成了不良影响。叠加AI技术的量产能力,其危害程度更是呈指数级上升。尽管一些内容生产者尝试提醒网民如何辨别AIGC并避免受骗,但AI技术的迭代速度过快,仅在受众端做工作难以解决根本问题。

  为此,2023年8月15日起施行的《生成式人工智能服务管理暂行办法》明确规定,提供和使用生成式人工智能服务应遵守法律、行政法规,尊重社会公德和伦理道德,不得生成暴力、淫秽色情以及虚假有害信息等法律、行政法规禁止的内容。因此,对AI造谣的治理应从AI工具本身入手,强化服务提供方对素材及其生成内容的审核职责。同时,网络平台也应承担起主体责任,建立有效的溯源机制,完善AIGC甄别技术,对疑似内容进行提示。对于类似事件,应严格追究不法分子的刑事或行政责任,以儆效尤。

  AI技术已广泛应用于各个领域,并将持续存在。人类应建立起完善的治理体系,确保技术服务于人类理性,实现科技向善。

(文章来源:南方都市报,图片来源于网络)