CSA推出AI控制矩阵:构建可信AI的全面框架

云安全联盟(CSA)发布AI控制矩阵(AICM),包含18个安全域和243个控制目标,为组织提供构建可信AI系统的全面框架,涵盖技术实现、合规要求和生命周期管理。

介绍CSA AI控制矩阵 | CSA

今天,云安全联盟(CSA)宣布发布AI控制矩阵(AICM),这是一个突破性的框架,旨在帮助组织以安全负责任的方式开发、实施和使用AI技术。随着我们目睹生成式AI和大语言模型的快速发展,对强大安全控制的需求从未如此关键。AICM是一个全面、可适应和可审计的框架,用于在组织、技术和社会边界内实施可信AI。

GenAI时代的信任必要性

生成式AI的变革潜力带来了前所未有的机遇和挑战。政策制定者和监管机构正在应对他们从未面临过的问题,而AI服务提供商正在提出基本问题:我们如何赢得客户信任?如何满足监管要求?如何在市场上建立可信度?

在CSA,我们相信信任是负责任AI进步的基础。AICM代表了我们在创新与问责制和透明度之间取得平衡的承诺,为组织提供构建可信AI系统所需的工具,这些系统负责任和合乎道德地为人类服务。

这个全面框架是CSA更广泛的可信AI生态系统的一部分,其中包括为准备首次承诺负责任AI的组织提供的AI可信承诺,以及即将推出的STAR for AI计划,该计划将基于AICM标准提供行业认可的认证。

什么是可信的GenAI服务?

可信的GenAI服务体现五个核心属性:

  • 在各种条件下具有强大可靠的性能
  • 能够抵御故障和对抗性攻击
  • 决策和输出可解释
  • 通过有意义的人类监督可控
  • 操作和限制透明

除了这些技术属性,可信AI还需要基本的问责措施,包括明确的责任框架、强大的隐私保护、跨不同人群的公平性,以及完全遵守适用法律法规。

AI控制矩阵:基于成熟原则构建

AICM不是孤立构建的。它建立在广泛采用的云控制矩阵(CCM)的坚实基础之上,利用多年的云安全专业知识来解决AI系统的独特挑战。这种方法确保组织可以在解决AI特定风险的同时,基于现有的安全实践进行构建。

关键特性:

  • 开放:全球社区免费可用
  • 专家驱动:由领先的AI和安全专业人士开发
  • 基于共识:通过协作行业输入构建
  • 供应商无关:适用于所有AI平台和提供商

全面覆盖:18个域,243个控制

AICM提供前所未有的全面覆盖,包含18个安全域和243个控制目标。这些域涵盖了AI安全关注的整个范围,从传统领域如身份和访问管理、数据安全和隐私生命周期管理,到AI特定域如模型安全和供应链管理、透明度和问责制。

AICM架构的五大支柱

该矩阵围绕五个关键支柱构建,提供每个控制的多维分析:

  1. 控制类型

    • AI特定控制,用于独特的AI风险
    • AI和云相关控制,用于混合环境
    • 云特定控制,用于底层基础设施
  2. 控制适用性和所有权

    • 跨AI服务堆栈的明确责任映射
    • 云服务提供商、模型提供商、编排服务提供商和应用程序提供商之间的共享责任模型
    • 覆盖所有四层:GenAI运营、模型、编排服务和GenAI应用程序
  3. 架构相关性

    • 映射到GenAI堆栈组件:物理、网络、计算、存储、应用和数据层
    • 确保整个技术堆栈的全面安全覆盖
  4. 生命周期相关性

    • 完整覆盖AI生命周期,从准备到开发、评估/验证、部署、交付和服务退役
    • 确保安全考虑嵌入整个AI系统生命周期
  5. 威胁类别

    • 解决九个关键威胁类别,包括模型操纵、数据投毒、敏感数据泄露、模型盗窃、服务故障、不安全供应链、不安全应用/插件、拒绝服务和治理/合规性丧失

AICM组件

与CCM类似,AICM除了上述核心控制外还有几个组件:

  • 评估问卷:称为AI共识评估倡议问卷(CAIQ),是一组问题,旨在指导组织对其GenAI态势进行自我评估,或作为第三方供应商的评估工具。AI CAIQ是即将推出的STAR Level 1 AI自我评估的基础,预计将于2025年底推出。

  • 实施指南:实施指南提供关于如何在实践中应用每个控制目标的额外细节和指导。它们针对分类法中定义的关键GenAI服务参与者(CSP、模型提供商、编排服务提供商、应用程序提供商和用户)。

  • 审计指南:审计指南提供关于如何在实践中评估和审计每个控制目标的额外细节和指导。它们也针对分类法中定义的关键GenAI服务参与者,并将作为STAR计划背景下AICM控制正式审计和评估的关键输入。

  • 与其他标准的映射:AICM不是孤立存在的。我们仔细将控制映射到现有的行业标准和框架,包括:

    • BSI AI C4目录:德国和欧洲合规性映射
    • NIST AI 600-1:美国联邦要求对齐
    • ISO 42001:与领先的AI ISO标准映射
    • EU AI法案:与AI法律和监管领域最相关法规的映射

与ISO 42001和EU AI法案的映射将于2025年8月发布。额外的映射和反向映射(分析AICM与目标标准相比的潜在差距)将在不久的将来添加。

构建信任生态系统:从承诺到认证

AICM是CSA可信AI全面方法的基石,但它是一个更大生态系统的一部分,旨在支持组织在AI旅程的每个阶段。

AI可信承诺

CSA AI可信承诺从第一天起就将信任嵌入AI开发生命周期。这是一个自愿承诺,表明组织致力于四个基本原则,这些原则应支撑每个AI计划:

  • 安全和合规系统超越满足最低监管要求。组织承诺在设计、开发、部署、操作、管理或采用AI解决方案时,优先考虑用户安全和遵守适用法律法规。
  • 透明度建立信任基础。组织承诺对其设计、开发、部署、操作、管理或采用的AI系统保持透明,培养与利益相关者和用户的信任和清晰度。
  • 道德问责确保公平不是事后考虑,而是设计原则。组织承诺道德AI设计、开发、部署、操作或管理,确保公平和解释AI结果的能力。
  • 隐私实践认识到AI的力量来自数据,伴随着这种力量的是保护推动这些系统的个人信息的责任。组织承诺维护个人数据的最高隐私保护标准。

AI可信承诺解决了一个关键的市场现实:信任正在成为竞争差异化因素。像Airia、Endor Labs、Deloitte Consulting、Okta、Reco、Redblock、Securiti AI、Whistic和Zscaler这样的组织已经认识到这一必要性并做出了承诺,获得了数字徽章以推广他们对负责任AI实践的承诺。通过从这些自愿承诺开始,CSA在引入正式认证框架之前,正在培养行业范围内对负责任AI实践的一致性。

STAR for AI计划

在最近的博客中,我介绍了STAR for AI计划。该计划为组织提供结构化路径,通过多个保证级别展示他们对可信AI的承诺。

AI控制矩阵作为STAR for AI的基础标准,为评估和认证提供技术骨干。正如STAR已成为云安全保证的行业黄金标准,STAR for AI定位为可信AI服务的明确标志。

渐进式旅程

我们的方法认识到组织处于AI成熟度的不同阶段,但都必须从对负责任实践的基本承诺开始。这一旅程既紧迫又具有战略性:

  • AI可信承诺:在行业标准仍在形成时,将您的组织定位为负责任AI创新的领导者。
  • AICM实施:使用我们的全面控制框架,在所有18个域和243个控制目标中构建强大的AI安全实践,确保您的AI系统满足最高可信度标准。
  • STAR for AI认证/证明:通过行业最认可的保证计划,实现您可信AI实践的第三方验证。

前进之路:引领负责任创新

AICM的发布代表了我们行业对AI革命响应的关键时刻,但主动领导的机会窗口有限。随着AI系统重塑整个行业并每天做出影响数百万生命的决策,那些从第一天起就将信任嵌入AI开发生命周期的组织将成为未来的市场领导者。

选择是明确的。时机就是现在。我们邀请全球社区参与我们的完整生态系统:

  • 从承诺开始,展示您对负责任AI的主动承诺,并在注重信任的市场中获得竞争差异化。您将收到官方数字徽章,并将您组织的标志展示在我们的网站上。
  • 实施AICM,构建解决全方位AI风险的全面安全实践。
  • 了解即将推出的STAR for AI认证。准备好实现您可信AI实践的行业认可验证。
  • 提供反馈,帮助我们继续发展这些框架,以应对快速变化的AI格局。

当我们站在这个关键拐点时,前所未有的技术能力与对负责任创新的迫切需求相遇,CSA的全面方法为组织提供的不仅仅是框架——我们提供构建强大、可信并为长期成功定位的AI系统所需的完整生态系统。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计