AI导读:

随着AI大模型的广泛应用,内容生成方式发生革命性变化,但也带来信息过载、模型偏见等问题。本文探讨了AI大模型带来的挑战,以及政府、企业、公众等各方主体如何应对AI大模型“幻觉”问题,确保内容质量和可信度,促进信息生态健康发展。

  随着人工智能(AI)大模型的广泛应用,内容生成方式发生了革命性变化,但也带来了诸多挑战与风险。

  头豹研究院2月26日发布的《从Deepseek现象到信息治理革命:共建数字时代清朗空间》报告指出,AI技术进步在提升生产效率的同时,也引发了信息过载、模型偏见加剧、逻辑自证陷阱等风险。一旦媒体、券商、咨询机构等使用AI大模型生成虚假或错误内容,将严重削弱公众信任,引发资本市场波动,并对传统产业链如数据中心、芯片厂商等造成冲击。

  中央网信办已明确提出,要整治AI技术滥用乱象,包括自媒体发布不实信息和AI技术滥用。那么,如何解决政府、企业、公众等各方主体面临的AI大模型“幻觉”问题?

  直面“幻觉”

  报告指出,AI大模型会导致信息过载,因为模型会将各种来源和立场的内容混杂,公众难以迅速辨别信息的真伪和权威性。此外,模型偏见加剧,生成内容可能出现事实偏差和歪曲,如过度性感化的女性图片或性别刻板印象。逻辑自证陷阱则指AI大模型能构建出看似合理的内容结果。

  头豹联合创始人兼总裁王晨晖表示,AI大模型一旦生成虚假或错误内容,将对内容生态和公众产生严重影响。错误和虚假内容的泛滥会破坏整个信息生态的健康发展。

  为应对这些问题,王晨晖建议,内容创作必须依赖专业团队或机构进行严格把关,确保内容的专业性、准确性和可靠性。特别是在资本市场、公共健康等领域,内容准确性至关重要。同时,内容发布平台需建立完善的溯源审查机制,确保信息真实性和时效性。对于AI生成内容(AIGC),要建立系统化的审查标准,覆盖创作、编辑、审核到发布的每一个环节。

  中国数实融合50人论坛副秘书长胡麒牧认为,AI大模型生成虚假或错误内容与模型训练相关,但本质是语料输入问题。一方面,通用大模型训练时使用的语料多为公共数据,而非专业数据。另一方面,通用大模型通过公域渠道获取的数据中,英文语料较多,中文语料较少。优质AI大模型的训练依赖于丰富的优质语料和算法迭代。

  找到最优解

  上海人工智能研究院算法专家陆文韬指出,为避免AI大模型生成错误结果和“幻觉”,从技术实现角度应注意三个方面:确保训练数据的高质量和多样性;调整模型架构与训练策略;完善实时监控与反馈机制。

  为平衡语料价值挖掘与技术秘密保护,胡麒牧表示,企业应主动训练自己的AI大模型或接入相关服务,并建立数据流通和交易机制,确保企业开放专业语料库后的收益大于风险。

  陆文韬表示,数据安全技术与合规机制需并行推进,如数据脱敏与加密、可信数据生态构建、合规工具链完善等。

  有效监管

  报告指出,随着信息生态复杂度提升,单一的管理和监管手段已难以应对虚假信息广泛传播。网络安全公司可与AI技术联手,构建全链条监控体系。

  胡麒牧表示,AI大模型在接收专业语料输入时,通过不断纠偏达到安全“域值”。监管部门虽难以全流程监控,但可通过了解安全“域值”预判风险。对于存在道德风险的语料输入者,可通过打标签、人工复核处理。

  陆文韬建议,制度与技术需协同,如创建白名单知识库、强制调用权威知识库、进行跨境数据审查等。

  王晨晖呼吁跨行业协作,共同构建坚固的内容监管链条,确保内容质量和可信度,推动AI时代内容普惠化生产,促进信息生态健康发展。

(文章来源:第一财经