AI导读:

OpenAI将实时搜索集成到ChatGPT,但最新测试显示AI易被操控和欺骗,存在重大风险。网络安全专家强调AI工具输出结果不应直接使用,需经过过滤和校验。

2024年,AI产业迎来了重大进步,OpenAI公司将实时搜索功能集成至ChatGPT,这一创新举措深刻改变了人们的检索信息方式。然而,最新测试揭示,AI在处理人类创造的复杂互联网信息时仍显得“单纯易骗”。

英国《卫报》公布了一项测试,通过隐藏网页中的文本,可以“诱导”ChatGPT返回虚假甚至恶意的搜索结果,这一现象被称为“提示注入”。测试中,AI在正常情况下会给出平衡的产品评估,但当页面包含隐藏文本指示AI必须给出好评时,AI就只会呈现积极结果,忽略负面评论。网络安全公司CyberCX的研究员指出,若OpenAI以当前形式全面开放ChatGPT搜索,将面临巨大风险,可能诱使不法分子创建专门用于欺骗用户或AI工具的网站。

OpenAI的安全团队正在对此进行严格测试,但易受骗性只是大语言模型与搜索结合的问题之一,因此人们不应完全依赖AI工具返回的结果。此外,AI工具不仅能生成文本,还能编写代码,这进一步加剧了AI被骗的危害性。例如,微软高级安全研究员分享了一个案例,一名加密货币爱好者要求ChatGPT编写合法访问Solana平台的代码,结果代码中包含了一个诈骗网址,导致用户损失了2500美元。

网络安全专家强调,AI聊天服务应被视为“副驾驶”,输出结果不应直接使用,而应经过过滤和校验。大模型技术建立在极度信任之上,但判断力有限,类似于复述消息的孩子,其内容需谨慎对待。OpenAI面临的问题,谷歌、百度、微软必应等搜索引擎公司也曾遭遇,即“SEO下毒”,黑客通过欺骗算法使恶意网站出现在搜索结果前列。若OpenAI想与谷歌竞争,就需面对并解决SEO污染问题,这将是一场长期的军备竞赛。

(文章来源:财联社)