随着人工智能技术在产业中的不断深化,AI系统已逐步成为企业关键业务的组成部分。与传统IT系统不同,AI系统具备“自学习、自决策”的特性,这也意味着它们在运行过程中可能面临更多非结构化、动态演变的风险场景。例如:
数据投毒:攻击者通过恶意干扰训练数据,诱导模型产生错误输出,影响系统决策。 对抗攻击:输入精心设计的对抗样本可欺骗AI模型,绕过安全检测或做出错误判断。 模型窃取与反向工程:AI模型作为企业核心资产,易成为攻击者试图复制、反推出模型逻辑的目标。 隐私泄露:模型训练过程中可能暴露敏感数据,触发GDPR等法规的合规风险。 系统不可控性:AI系统的不透明性与自适应行为,使传统安全检测难以奏效。
这些问题一旦发生,不仅可能导致企业数据资产受损、业务中断,甚至还会引发合规风险。因此,构建具备“可防御、可识别、可响应”能力的AI安全体系,已成为企业当前与未来不可回避的重要课题。
ETSI TS 104 223标准发布 为AI系统构建系统性安全框架
为响应日益突出的AI安全需求,欧洲电信标准协会(ETSI)于2025年4月正式发布了《Securing Artificial Intelligence (SAI); Baseline Cyber Security Requirements for AI Models and Systems》——ETSI TS 104 223标准。
ETSI TS 104 223标准通过以下方式增强 AI 系统的网络安全性:
数据治理:确保 AI 系统使用的数据来源可靠,防止数据中毒等攻击。 模型稳健性:增强 AI 模型对抗攻击的能力,如对抗样本和模型混淆。 透明性和可解释性:提高 AI 系统的透明度,使其决策过程更易于理解和审查。 责任分配:明确各方在 AI 系统安全中的责任,确保在出现问题时能够迅速响应。 持续评估和测试:定期对 AI 系统进行安全评估和测试,及时发现并修复潜在漏洞。
作为全球首个聚焦AI系统网络安全的标准体系,该标准通过三大核心亮点,为企业提供了清晰的建设路径:
13项核心安全原则:为AI系统的安全设计与实现提供了顶层指导。 72条可操作性要求:细化了在AI系统生命周期各阶段需要满足的具体安全要求,具有很强的落地指导意义。 安全生命周期管控:将安全考虑融入AI的规划、数据处理、模型开发、部署、运行维护等生命周期的每一个环节。
通过这些规范,标准旨在建立一个可信赖的 AI 安全生态系统,保护最终用户免受不断演变的网络威胁。