保障AI安全以充分发挥AI潜力

本文探讨人工智能在网络安全领域的应用与风险,详细分析Agentic AI系统的身份安全框架、AI安全最佳实践及自动化平衡策略,涵盖访问控制、数据保护、部署安全等六大核心领域。

保障AI安全以充分发挥AI潜力

人工智能(AI)在改善网络防御和简化安全从业人员工作方面具有巨大潜力。它能够帮助团队缓解警报疲劳、更快识别模式,并实现人类分析师无法单独达到的规模效应。但实现这一潜力取决于保障其底层系统的安全性。

每个在安全运营中尝试AI的组织,无论是否意识到,都在扩大其攻击面。若缺乏清晰的治理、强健的身份控制和对AI决策过程的可见性,即便是善意的部署也可能以比降低风险更快的速度制造风险。要真正从AI中获益,防御者需以对待其他关键系统的严谨态度来保障AI安全。这意味着要建立对其学习数据的信任、对其所采取行动的问责制以及对其产出结果的监督机制。当AI被正确保护时,它能增强而非取代人类能力,帮助从业者更智能地工作、更快响应并更有效地防御。

建立Agentic AI系统的信任基础

随着组织开始将AI集成到防御工作流中,身份安全成为信任的基石。在生产环境中运行的每个模型、脚本或自主代理现在都代表着一个新身份——能够访问数据、发布命令并影响防御结果的身份。如果这些身份未得到适当治理,本应加强安全性的工具可能悄然成为风险源。

Agentic AI系统的出现使这一点尤为重要。这些系统不仅进行分析,还可能在无人干预的情况下采取行动。它们根据人类操作员的授权,对警报进行分类、丰富上下文或触发响应流程。每个行动实际上都是一次信任交易。这种信任必须与身份绑定,通过策略进行认证,并实现端到端可审计。

保障人员和服务安全的原则现在必须应用于AI代理:

  • 范围限定凭证和最小权限原则,确保每个模型或代理仅能访问其任务所需的数据和功能
  • 强认证和密钥轮换,防止冒充或凭证泄露
  • 活动溯源和审计日志记录,使每个AI发起的行动都可追踪、验证并在必要时撤销
  • 分段和隔离,防止跨代理访问,确保一个受感染的进程不会影响其他进程

在实践中,这意味着将每个Agentic AI系统视为IAM框架中的一等公民身份。每个系统都应像任何用户或服务账户一样,拥有明确的所有者、生命周期策略和监控范围。防御团队应持续验证这些代理的实际能力,而不仅仅是设计意图,因为能力漂移往往快于设计变更。以身份为基础建立信任后,防御者可以将注意力转向保护更广泛的系统。

保障AI安全:成功最佳实践

保障AI安全始于保护使其成为可能的系统——现已融入日常安全运营的模型、数据流水线和集成。正如我们保护网络和端点一样,AI系统必须被视为需要分层和持续防御的关键任务基础设施。

SANS安全AI蓝图 outlining 了一个"保护AI"轨道,提供了清晰的起点。基于SANS关键AI安全指南,该蓝图定义了六个可直接转化为实践的控制领域:

  1. 访问控制:对每个模型、数据集和API应用最小权限和强认证。持续记录和审查访问以防止未授权使用
  2. 数据控制:验证、清理和分类所有用于训练、增强或推理的数据。安全存储和溯源跟踪可降低模型中毒或数据泄露风险
  3. 部署策略:通过沙箱、CI/CD门控和红队测试在发布前强化AI流水线和环境。将部署视为受控、可审计的事件而非实验
  4. 推理安全:通过强制执行输入/输出验证、防护栏和高影响行动的升级路径,保护模型免受提示注入和滥用
  5. 监控:持续观察模型行为和输出,检测漂移、异常和受损迹象。有效的遥测使防御者能够在操纵扩散前检测到
  6. 模型安全:在整个生命周期中对模型进行版本控制、签名和完整性检查,确保真实性并防止未授权交换或重新训练

这些控制措施直接与NIST的AI风险管理框架和OWASP LLM十大安全风险保持一致,后者强调了AI系统中最常见和影响最大的漏洞——从提示注入和不安全插件集成到模型中毒和数据暴露。在这些六个领域内应用这些框架的缓解措施有助于将指导转化为运营防御。一旦这些基础就位,团队可以通过了解何时信任自动化、何时保持人工参与来专注于负责任地使用AI。

平衡增强与自动化

AI系统能够像永不休息的实习生一样协助人类从业者。然而,安全团队必须区分什么应该自动化,什么应该增强。某些任务受益于完全自动化,特别是那些可重复、可衡量且出错时风险较低的任务。但其他任务需要直接的人工监督,因为上下文、直觉或伦理道德比速度更重要。

威胁情报丰富、日志解析和警报去重是自动化的主要候选。这些是数据密集、模式驱动的过程,一致性胜过创造性。相比之下,事件范围确定、归因和响应决策依赖于AI无法完全掌握的上下文。在这种情况下,AI应通过呈现指标、建议后续步骤或总结发现来协助,而从业者保留决策权。

找到这种平衡需要流程设计的成熟度。安全团队应根据工作流对错误的容忍度和自动化失败的成本进行分类。在误报或忽略细微差别的风险较高的地方,保持人工参与。在可以客观衡量精确度的地方,让AI加速工作。

加入SANS Surge 2026!

我将在SANS Surge 2026(2026年2月23-28日)的主题演讲中深入探讨这一话题,我们将探索安全团队如何确保AI系统值得信赖。如果您的组织正在快速推进AI应用,本次活动将帮助您更安全地推进。加入我们,与同行交流,向专家学习,并亲眼目睹实践中的安全AI究竟是什么样子。

在此注册SANS Surge 2026

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计