AI如何改变GRC战略
随着企业将网络安全纳入治理、风险与合规(GRC)体系,重新审视现有GRC计划至关重要,以确保生成式和代理型AI的日益使用及相关风险得到应对,从而持续满足监管要求。
ISACA董事会成员、澳大利亚证券与投资委员会(ASIC)CISO Jamie Norton表示:“AI是一种极具颠覆性的技术,你无法将其简单归类为‘这就是AI’。”
尽管AI风险难以量化,但关于AI采用如何扩展和转变组织风险面的数据提供了线索。根据Check Point的2025年AI安全报告,企业设备发送给生成式AI服务的每80个提示中就有1个(1.25%)存在敏感数据泄露的高风险。
CISO面临在支持业务创新需求的同时保障AI部署安全的挑战。Norton告诉CSO:“从纯粹的安全角度,他们试图阻止影子AI成为一种文化现象(即无防护地采用和使用)。”
AI并非典型风险,GRC框架如何助力?
治理、风险与合规(GRC)概念源于2000年代初的开放合规与道德小组(OCEG),旨在定义一套关键能力以应对不确定性、诚信行事并确保合规以支持组织目标。此后,GRC已从专注于合规的规则和清单发展为更广泛的风险管理方法。数据保护要求、不断扩大的监管环境、数字化转型努力以及董事会层面的关注推动了GRC的这一转变。
与此同时,网络安全已成为核心企业风险,CISO帮助确保符合监管要求并建立有效的治理框架。随着AI的扩展,需要将这类新型风险纳入GRC框架。
然而,行业调查显示,防护措施跟上AI的步伐仍有很长的路要走。根据2025年联想CIO手册,只有24%的组织完全执行了企业AI GRC政策。同时,报告发现AI治理和合规是首要任务。
行业研究表明,CISO需要紧急帮助加强AI风险管理,这是由领导层渴望在不改变风险状况的情况下实现回报所驱动的。
AuditBoard的CISO Rich Marcus表示,CISO处境艰难,因为他们有双重任务:提高生产力和利用这一强大的新兴技术,同时仍保持治理、风险与合规义务。“他们被要求利用AI或帮助加速组织内AI的采用以实现生产力增益。但不要让它成为如果做错就会毁掉业务的东西。”
为了支持风险感知的AI采用,Marcus的建议是CISO避免单独行动,并在整个组织内培养广泛的信任和对风险管理的认同。“成功管理AI风险的关键是以协作心态处理情况,并向大家传达信息:我们共同应对,你在这里不是为了拖慢他们。”
这种方法应有助于鼓励关于AI在组织内如何及何处使用的透明度。Norton表示,网络安全领导者必须尝试通过建立安全流程来获取可见性,该流程将捕获当前AI的使用位置或新AI的新兴需求。
“如今每个产品都有一些AI,没有一个治理论坛能够涵盖所有不同形式的AI,”他说。
Norton建议CISO制定战略和战术方法来定义不同类型的AI工具,捕获相对风险,并平衡生产力和创新的潜在回报。安全设计流程、IT变更流程、影子AI发现程序或基于风险的AI清单和分类等战术措施是处理较小AI工具的实用方法。“对于更日常的AI——某些产品或某些SaaS平台中的AI,这些无处不在增长——可以通过战术方法管理,识别哪些元素需要监督,”Norton说。
战略方法适用于随着Microsoft Copilot和ChatGPT等主要工具而来的重大AI变化。使用内部AI监督论坛保护这些“大额”AI工具比保护大量其他添加AI的工具稍微容易。
然后,CISO可以以不会创建笨重或不可行流程的方式将资源集中在最高影响的风险上。“想法不是让这变得几乎不可能实现任何东西,因为组织通常希望快速行动。因此,这是一个相对轻量级的过程,应用风险考虑来允许AI或用于阻止风险AI,”Norton说。
最终,任务是让安全领导者使用治理和风险作为组织更广泛GRC框架的一部分,将安全镜头应用于AI。“许多组织会有首席风险官或类似角色,负责环境中的更广泛风险,但安全应在桌上有席位,”Norton说。“如今,不再是CISO说‘是’或‘否’。更多的是我们提供涉及做某些事情的风险可见性,然后允许组织和高级管理人员围绕这些风险做出决策。”
用AI风险控制调整现有框架
AI风险包括数据安全、AI工具误用、隐私考虑、影子AI、偏见和道德考虑、幻觉和验证结果、法律和声誉问题以及模型治理等。
Check Point AI技术副总裁Dan Karpati表示,通过整合到GRC支柱中,AI相关风险应作为组织风险组合中的独特类别建立。Karpati建议四个支柱:
- 企业风险管理定义AI风险偏好并建立AI治理委员会。
- 模型风险管理监控模型漂移、偏见和对抗测试。
- 操作风险管理包括AI故障的应急计划和人类监督培训。
- IT风险管理包括定期审计、AI系统合规检查、治理框架以及与业务目标对齐。
为了帮助映射这些风险,CISO可以参考NIST AI风险管理框架和其他框架,如COSO和COBIT,并应用其核心原则——治理、控制和风险对齐——以覆盖AI特征,如概率输出、数据依赖性、决策不透明性、自主性和快速演变。新兴基准ISO/IEC 42001为AI提供了结构化框架,用于监督和保证,旨在将治理和风险实践嵌入AI生命周期。
调整这些框架提供了一种提升AI风险讨论、将AI风险偏好与组织总体风险容忍度对齐并在所有业务单元嵌入强大AI治理的方法。“安全领导者可以将AI风险映射到切实的业务影响,而不是重新发明轮子,”Karpati说。
AI风险还可以映射到因欺诈或 flawed决策导致的财务损失、数据泄露、偏见结果或客户不满导致的声誉损害、与遗留系统集成不良和系统故障导致的操作中断以及法律和监管处罚的可能性。CISO可以利用FAIR(信息风险因素分析)等框架评估AI相关事件的可能性,以货币术语估计损失,并访问风险暴露指标。“通过从定性和定量角度分析风险,业务领导者可以更好地理解并根据财务基准权衡安全风险,”Karpati说。
此外,随着新兴监管要求,CISO需要监控草案法规,跟踪评论期请求,提前预警新标准,然后在批准前准备实施,Marcus说。
利用行业网络和同行可以帮助CISO在威胁和风险发生时保持了解,而GRC平台中的报告功能监控任何监管变化。“了解现场正在显现的风险、什么本可以保护其他组织,并共同构建关键控制和程序,将使我们在面对这些威胁时作为行业更具韧性,”Marcus说。
治理是更广泛GRC框架的关键部分,CISO在设定组织如何负责任地使用AI的规则和原则方面扮演重要角色。
制定治理政策
除了定义风险和管理合规,CISO还必须制定新的治理政策。“有效的治理需要包括AI的可接受使用政策,”Marcus说。“评估过程的早期输出之一应定义组织的规则。”
Marcus建议使用红绿灯系统——红、黄、绿——对AI工具进行分类,以在业务中使用或不使用。它为员工提供清晰指导,允许技术好奇的员工在安全空间中探索,同时使安全团队能够构建检测和执行程序。重要的是,它还让安全团队提供协作创新方法。
“绿色”工具已审核批准,“黄色”需要额外评估和特定用例,标记为“红色”的工具缺乏必要保护并被禁止员工使用。
在AuditBoard,Marcus和团队开发了AI工具选择标准,包括保护专有数据和保留所有输入和输出的所有权等。“作为企业,你可以开始制定你关心的标准,并用这些作为衡量任何呈现给你的新工具或用例的尺度。”
他建议CISO及其团队提前定义指导原则,教育公司了解什么是重要的,并通过过滤不符合该标准的内容来帮助团队自我执行。“然后当[AI工具]到达CISO时,人们已经了解期望是什么,”Marcus说。
对于特定AI工具和用例,Marcus和团队开发了“模型卡”,一页文档概述AI系统架构,包括输入、输出、数据流、预期用例、第三方以及系统数据如何训练。“它允许我们的风险分析师评估该用例是否违反任何隐私法律或要求、任何安全最佳实践以及任何可能适用于业务的新兴监管框架,”他告诉CSO。
该过程旨在识别潜在风险并能够将这些风险传达给组织内的利益相关者,包括董事会。“如果你评估了数十个这些用例,你可以挑选出共同风险和共同主题,汇总这些,然后提出策略来减轻其中一些风险,”他说。
然后团队可以查看可以应用什么补偿控制,它们可以在不同AI工具中应用多远,并将此指导提供给高管。“它将对话从关于这一个用例或这一个风险的更战术性对话转变为处理组织中‘AI风险’的更战略性计划,”Marcus说。
Jamie Norton警告说,现在AI的闪亮界面对每个人都容易访问,安全团队需要训练关注这些工具表面下发生的事情。应用战略风险分析、利用风险管理框架、监控合规性和制定治理政策可以帮助CISO指导组织的AI之旅。
“作为CISO,我们不想阻碍创新,但我们必须在其周围设置防护栏,以免我们冲入荒野且数据泄露,”Norton说。