AI治理框架:CISO必须掌握的技术风险管理指南

本文深入解析AI治理框架的核心组件与实施策略,涵盖NIST、ISO等国际标准,指导CISO建立有效的AI风险管理体系,确保合规性与技术可靠性。

CISO需知的AI治理框架要点

AI正在快速改变企业运营方式,但该技术本身存在重大风险。若管理不当,这些风险可能导致组织面临法律、道德和声誉损害。

AI系统可能无意中延续偏见、侵犯隐私或产生不可预测的结果,从而损害利益相关者的信任。CISO可通过建立全面的AI治理计划来应对这些风险。设计合理的治理计划能够识别、评估和控制风险,同时确保AI技术以负责任、透明的方式使用,并符合不断发展的监管要求。审慎的AI治理方法使公司能够充分利用AI的潜力,同时保障其运营、客户和品牌。

AI治理计划的原则与组件

可靠的AI治理策略建立在三个重要组件上:

  • 风险管理:识别和应对AI特定风险,包括偏见、隐私侵犯、安全问题和网络安全威胁,以减少有害结果和昂贵故障的可能性。同时评估第三方和合作伙伴的风险。这种风险管理形式还包括风险的积极面——即收益。如果无法准确列举收益,公司绝不会将AI添加到已有系统中。
  • 建立信任:向客户、合作伙伴、监管机构和投资者展示组织优先考虑道德、透明和公平的AI实践,从而加强品牌声誉和利益相关者关系。
  • 提升质量与可靠性:为AI开发、部署和监控建立一致的标准,以满足合规法规。目标是建立强大、可靠、可维护且合规的AI系统。

监管合规要求

建立AI治理计划在风险管理视角下带来益处,但也存在合规要求。以下法律和法规可能适用于您的组织。

美国

  • 州级法规:纽约市地方法律144要求对自动化就业决策工具进行偏见审计。《加州隐私权法案》涵盖涉及个人数据的剖析和自动化决策。
  • 《联邦贸易委员会法案》和《公平信用报告法》:适用于自动化决策中的不公平或欺骗性做法。

欧盟

  • 《AI法案》:对AI采用基于风险的方法——禁止、高风险、有限风险、最小风险——对高风险AI系统有强制性要求。包括风险管理、数据治理、技术文档、人工监督和市场后监控。这是全球首部全面的AI法律。
  • 《GDPR》:如果AI使用个人数据则适用。与数据最小化、公平性、透明度、可解释性和数据主体权利相关——例如,第22条下的解释权。
  • 《数字服务法案》和《数字市场法案》:虽然不特定于AI,但这些法规适用于在线平台中与AI系统相关的透明度和问责义务。

常见AI治理框架

标准和最佳实践竞相跟上AI的快速发展,其中许多在过去几年内出现。以下框架帮助组织实现AI计划的三个基本原则:

  • OECD AI原则(2019):2019年通过,2024年更新,强调AI系统中的透明度、问责制和以人为本的价值观。该国际标准已得到47个国家认可。
  • ISO/IEC 42001:2023信息技术——人工智能——管理系统:该标准概述了建立、实施、维护和持续改进AI管理系统的要求。是首个国际AI管理系统标准。
  • NIST AI风险管理框架1.0(2023):NIST的AI RMF通过四个核心功能(治理、映射、测量和管理)提供识别、衡量、管理和监控AI风险的全面方法。在公共和私营部门广泛采用。
  • IEEE 7000系列:该系列标准专注于AI的道德和治理考虑——例如,IEEE 7001-2021用于透明度,IEEE 7003-2024用于算法偏见。

如何实施AI治理计划

有多种方式建立AI治理计划,以及实施该计划的多个步骤。我们将以NIST特别出版物800-221A作为基础AI治理框架。该报告“信息和通信技术(ICT)风险结果——将ICT风险管理计划与企业风险组合整合”可能看似令人生畏,但实际上是一个简单模型,类似于NIST网络安全框架、隐私框架和AI RMF,从更抽象的角度涵盖ICT风险。这些风险结果将帮助组织启动AI治理计划。注意:我已略微调整这些结果的顺序以反映我的优先级。

NIST SP 800-221A的两个主要功能是治理和管理。这些功能内包含类似于上述框架的类别。熟悉NIST内部报告8286系列的人将在管理功能中看到重叠和共性。

NIST SP 800-221A:治理

  • 角色与职责:为AI治理建立单一角色。其他角色可能属于此范畴,但拥有对AI治理负责和授权的单一角色是问责的关键。
  • 背景:为AI实施创建清晰的绩效目标。这些绩效目标将受组织使命、目标和目的的影响。与这些企业级数据点关联,使监督AI治理的人能够做出战略上合理的决策。
  • 基准测试:创建风险登记册。风险登记册——在NIST IR 8286系列中描述——作为AI风险管理的单一参考点。跟踪积极风险(收益)和消极风险。
  • 政策:根据风险(积极和消极)制定AI政策。例如,制定培训政策,员工同意在培训前不使用AI工具和系统。
  • 沟通:建立清晰的沟通渠道。这些沟通可以是内部和外部的,用于事件响应或违规通知。同样,这些沟通渠道可以与其他部门和团队(如隐私和网络安全)建立。为个别AI风险场景、响应沟通和其他问题创建模板。
  • 调整:随着条件变化重新评估风险登记册。这些变化包括事件、重组、使命变更、市场波动、技术转变或新威胁。

NIST SP 800-221A:管理

  • 风险识别:建立定期的AI风险会议。虽然未来会有更复杂的方法识别风险,但仅建立固定的会议日程讨论AI风险就足以启动。使用NIST SP 600-1“人工智能风险管理框架:生成式人工智能概要”中识别的风险开始。
  • 风险分析:分析风险登记册中的每个风险,并确定其对组织的影响。
  • 风险优先级排序:对风险登记册中的风险进行优先级排序。一些组织按影响排名风险;其他组织依赖其他策略。组织应使用其特定绩效目标来指导优先级排序策略。
  • 风险响应:确定行动计划。风险响应可以简单如接受风险并继续前进。或者,可能更全面,需要多个主题专家和利益相关者。每个风险必须有清晰的响应策略。
  • 风险监控、评估和调整:监控风险登记册中的风险。在定期的AI风险会议上,讨论每个风险响应的进展,评估其有效性,并调整响应或响应类型。关键是不断讨论风险。
  • 风险沟通:向上级沟通风险状态。技术细节可能不需要;简单的“进行中”或“完成”状态可能足够。在面临时间或技术瓶颈时请求帮助或资源。如果风险适当与企业战略关联,这些讨论应易于优先级排序和解决。
  • 风险改进:从他人那里学习教训。一些组织可能没有实现的风险,而其他组织则不会如此幸运。如果从事件中学到适用的教训,评估其对组织的适用性,并适当调整风险响应或策略。

未来验证AI治理计划

虽然任何技术学科都没有水晶球,但AI显然是一个快速发展的领域,在资本支出、模型规模和能力方面爆炸性增长。组织应未来验证其AI治理框架,以确保其在今天和未来有效。这涉及使用它来加速风险管理周期。风险越早被识别,就能越早被缓解。

授权AI治理负责人做出影响许多系统的决策,以确保组织能够继续收获AI的益处。继续集体评估新兴AI风险,以控制问题并避免因事件成为头条新闻。

结论:有效的AI管理释放益处

AI正在快速重塑竞争格局。建立强大的AI治理计划不再是可选的,而是CISO的战略要务。

实施有效的治理框架和计划有助于组织自信地释放AI的变革性益处,确保符合快速发展的法规,并与客户、员工和利益相关者建立信任。

负责任的AI治理不仅保护组织免受新兴风险的影响,还使它们在以道德、透明和以人为本的创新定义的未来中定位长期成功。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计