AI导读:

AI技术正快速融入各行各业,但私有化部署的服务器存在安全漏洞,数据安全问题日益凸显。本文探讨了数据安全挑战,包括数据泄露、公共服务中断等风险,以及数据加密、AI对抗AI等应对措施。同时,强调了提高安全意识、完善法律法规的重要性。

AI技术正以前所未有的速度融入各行各业,机关、企事业单位纷纷推进大模型私有化部署,广泛应用于企业办公、科技研发、公共服务等领域。然而,其背后的安全隐患日益凸显。近期研究显示,近90%私有化部署的服务器在互联网上暴露,存在安全漏洞,部分模型易遭攻击。

数据安全,在狭义上指免受篡改和破坏,广义则涵盖数据的可靠性、安全性及服务内容的安全性。在AI时代,数据安全的内涵持续扩展。AI虽带来便利,但也带来数据安全挑战。训练大模型涉及海量数据,处理不当或违规处理敏感数据,易导致数据泄露。数据收集后的处理环节,若犯罪分子利用安全漏洞,可能导致公共服务中断、企业经济损失等,影响经济和社会秩序。

为保数据安全,已出现数据加密、访问控制等技术手段。部分企业采用AI对抗AI,通过机器学习识别安全风险,实现快速响应。但部分管理者对AI安全认知滞后,风险意识淡薄,安全防范教育缺失,给数据安全带来隐患。例如,使用开源框架时,为追求速度,默认开启无密码公网访问,忽视防火墙配置,如同将无密码保险箱置于街头,易被攻击者窃取数据。此外,尽管我国已出台多部AI和网络数据政策,但面对AI的快速发展,相关法律尚需完善。

技术发展越快,安全保障需求越迫切。AI技术飞速发展,开发者、企业、用户需提高警惕,共同筑牢AI大模型安全墙。AI企业应主动承担安全责任,提高技术水平,利用先进安全技术保障运行监测,确保大模型安全、可靠、稳定。企业在部署前,应全面评估风险,制定安全方案,开展安全培训,避免安全事故。同时,需制定详细、具体的法律法规,明确数据使用范围,统一AI安全认证标准,为AI数据安全提供法治支撑。

AI大模型应用场景不断拓展,唯有保持警惕、不断创新,才能为AI大模型穿上更有效的防护服,筑牢安全基座。

(文章来源:广州日报)