ChatGPT搜索功能易受骗,AI工具使用需谨慎
AI导读:
OpenAI将实时搜索集成到ChatGPT,但最新测试显示AI易被操控和欺骗,存在重大风险。网络安全专家强调AI工具输出结果不应直接使用,需经过过滤和校验。
2024年,AI产业迎来了重大进步,OpenAI公司将实时搜索功能集成至ChatGPT,这一创新举措深刻改变了人们的检索信息方式。然而,最新测试揭示,AI在处理人类创造的复杂互联网信息时仍显得“单纯易骗”。
英国《卫报》公布了一项测试,通过隐藏网页中的文本,可以“诱导”ChatGPT返回虚假甚至恶意的搜索结果,这一现象被称为“提示注入”。测试中,AI在正常情况下会给出平衡的产品评估,但当页面包含隐藏文本指示AI必须给出好评时,AI就只会呈现积极结果,忽略负面评论。网络安全公司CyberCX的研究员指出,若OpenAI以当前形式全面开放ChatGPT搜索,将面临巨大风险,可能诱使不法分子创建专门用于欺骗用户或AI工具的网站。
OpenAI的安全团队正在对此进行严格测试,但易受骗性只是大语言模型与搜索结合的问题之一,因此人们不应完全依赖AI工具返回的结果。此外,AI工具不仅能生成文本,还能编写代码,这进一步加剧了AI被骗的危害性。例如,微软高级安全研究员分享了一个案例,一名加密货币爱好者要求ChatGPT编写合法访问Solana平台的代码,结果代码中包含了一个诈骗网址,导致用户损失了2500美元。
网络安全专家强调,AI聊天服务应被视为“副驾驶”,输出结果不应直接使用,而应经过过滤和校验。大模型技术建立在极度信任之上,但判断力有限,类似于复述消息的孩子,其内容需谨慎对待。OpenAI面临的问题,谷歌、百度、微软必应等搜索引擎公司也曾遭遇,即“SEO下毒”,黑客通过欺骗算法使恶意网站出现在搜索结果前列。若OpenAI想与谷歌竞争,就需面对并解决SEO污染问题,这将是一场长期的军备竞赛。
(文章来源:财联社)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

