AI导读:

AI大模型应用迅猛增长,但存在虚假信息问题,即AI幻觉。AI幻觉虽带来创造力,但也需严格控制。需从技术研发、管理机制上双管齐下,防范AI幻觉信息泛滥。期待中国AI产业平衡创造力与真实性。

  当前,我国AI大模型的应用呈现迅猛增长态势。QuestMobile发布的最新数据显示,Deepseek上线次月(2025年2月),活跃用户规模就突破了1.8亿。然而,在AI应用快速普及的同时,不少网友发现AI存在虚假信息问题。AI查资料时,竟会编造假论文,期刊名称、论文标题、作者、网址等信息一应俱全,却全是虚构;更有“80后死亡率突破5.2%”的假新闻广为流传,最初的信源可能就来自AI对话。

  这其实是大模型诞生之初就存在的老毛病——AI幻觉。有专家认为,AI幻觉是大模型的“基因病”。AI大模型训练依赖海量数据,但数据真实性难以保证。AI基于统计概率生成文本,追求流畅性而非真实性,因此容易编出看似流畅但完全不符合事实的内容。

  那么,AI幻觉这“基因病”能治吗?要怎么治?

  首先,AI幻觉虽带来问题,但也赋予AI“超能力”,不必根除。AI幻觉决定了大模型的创造力,对实现通用人工智能(AGI)至关重要,可在科研、文艺等领域发挥作用。例如,游戏开发、动漫设计、小说创作等领域欢迎奇思妙想,AI幻觉可突破思维定式,为创作提供灵感。

  然而,AI幻觉虽不可根除,但须严格控制。AI幻觉产生大量虚假信息,会形成恶性循环,影响AI系统学习。在企业生产、医疗、法律等容错率低的领域,AI幻觉更是大问题。因此,要从技术研发和管理机制上双管齐下,防范AI幻觉信息泛滥。

  技术层面,检索增强生成(RAG)技术、多模型交叉验证、动态知识更新机制等,都是减少AI幻觉的有效手段。未来,需继续提升训练数据质量与清洗标准,引入强化学习与人类反馈机制,增强AI检测能力。

  用户层面,对AI答案应谨慎采信,可用多个AI模型生成答案再交叉验证。对关键任务输出,更应采取人工交叉验证,结合专业工具作出判断。

  监管层面,“标注AI生成内容”已成为我国监管部门推动方向,将提高AI生成内容的可追溯性和可解释性。未来,应加快人工智能立法进程,建立全周期全链条监管体系。

  实现“不被AI忽悠”目标,需算法工程师构建底层安全防线,全社会共同建设可信AI生态。期待中国AI产业解决好AI幻觉控制难题,平衡创造力与真实性。

(文章来源:经济日报)