欢迎阅读PCI安全标准委员会的博客系列《AI交流:支付安全创新者》。本系列作为我们PCI Perspectives博客的特别连载内容,为支付安全行业参与者提供了一个交流平台,分享他们在组织中采用和实施人工智能的经验。
在本期《AI交流》中,云安全联盟首席战略官Troy Leach分享了其公司如何运用AI,以及这项快速发展的技术如何塑造支付安全的未来。
问:贵组织最近如何将人工智能纳入运营?
在云安全联盟,我们的使命是为最新技术开发网络安全框架和最佳实践。这意味着我们不仅要研究新技术,还要早期采用以理解其影响。
对于人工智能,我们采取了审慎的方法将其嵌入整个组织。由于我们每月发布多篇研究论文和最佳实践,我们确保每个部门——从研究到培训,从IT到市场营销——都早期且经常地尝试大型语言模型和其他AI工具。
为推动采用,我和同事发起了内部“AI日”活动,与每个部门合作识别生成式AI可以简化工作流程或解决以往认为棘手问题的机会。这些研讨会是实践性的:我们的IT团队使用AI加速编码和SQL查询开发;市场营销人员构建了AI驱动的人物角色来优化沟通;我们甚至让AI代理推荐旧研究的更新内容,并开发了内部机器人动态收集并向所有员工展示CSA知识。
成果显著——员工们要求我们定期继续“AI日”以跟上变化。
对外,我们还推出了Valid-AI-ted模型,用于审查合规性自填问卷的准确性。类似于PCI自评估问卷,我们的云控制矩阵和AI框架使用CAIQ。通过应用AI验证,我们帮助确保STAR注册表(一个云安全评估的公共存储库)中的条目尽可能准确可靠。我们相信AI也能为支付行业带来这种实际的合规改进。
问:随着AI使用日益普及,贵组织最显著的变化是什么?
最显著的变化是变化速度本身。以往需要数周完成的任务——如开发代码片段或优化分析——现在通过AI辅助的“氛围编码”得以加速。这可能不是投入生产的最终代码,但为我们的开发人员提供了解决挑战的新思路。
但速度是一把双刃剑。就在组织建立熟悉度时,模型再次演进。例如,在GPT早期,提示工程需要精确结构,出现了关于如何“设计”提示的培训课程。一年内,模型开始自行询问澄清问题,大幅提升了结果而无需此类专业知识。
同样的跨越也发生在图像识别和OCR等能力上。如今,开发人员可以将代码片段作为图像粘贴到提示中,让模型实时理解、排查故障甚至提出解决方案。同样,AI现在直接嵌入生产力平台——无论是办公应用、文件存储库还是消息渠道——使人工作流与AI辅助之间的界限几乎消失。
作为安全专业人员,我们必须既欣赏又谨慎地看待这一点。集成越无缝,如果组织未能正确分割数据或实施治理控制,潜在的暴露风险就越大。对于PCI DSS环境,支付数据的机密性和完整性至关重要,这些AI支持工作流程的透明度和监督至关重要。
问:您如何看待AI未来演变或影响支付安全?
当我与金融机构会面时,听到的既有乐观也有担忧。AI的承诺是大规模个性化——商户和支付提供商将自主为客户和合作伙伴提供独特价值。但个性化不能以牺牲PCI DSS数据最小化和控制范围的核心原则为代价。
一个真正有益的领域是培训。想象一下安全意识培训能根据每个部门的具体情境调整示例。安永最近报告称,94%的员工认为如果在过去一年内接受过培训,安全就成为个人目标。现在设想每个场景都量身定制,展示该特定角色如何影响整体支付安全策略。这种相关性水平将PCI DSS要求的合规性从“打勾”活动转变为有意义的防御机制。
AI也有望彻底改变合规本身。无需手动审查数据流图或进行冗长访谈来验证控制措施,AI可以持续验证文档并实时标记变化。这确保商户和服务提供商全年保持PCI DSS合规——而不仅仅是在QSA评估期间。
最后,支付安全运营已经受益。我们听说安全运营中心集成AI进行根本原因分析,以更高准确性发现细微异常——即所谓的“大海捞针”。实际上,AI成为全天候分析师,以不懈的模式识别和其他智能功能增强人力资源。
问:随着AI更深入集成到支付安全中,组织应考虑哪些潜在风险?
第一个风险是在没有人工监督的情况下过度依赖AI决策。生成式AI本质上是概率性的;与确定性静态软件不同,它可能产生意外输出。在支付领域,我们已经看到聊天机器人推出失败,因为客户创造力暴露了偏离公司政策的边缘案例。
随着代理AI用例——自主AI代理代表用户行动——风险升级。组织经常保护员工ID,但忽略了AI代理本身可以访问或执行的内容。这创建了特权过大且缺乏治理的代理,破坏了PCI DSS的最小特权和访问管理控制。
认证也在AI压力下快速发展。曾经被认为几乎无法欺骗的生物特征数据现在可以被模仿。虽然AI有时可以检测这些深度伪造或“生物钓鱼”尝试,但假设防御性AI总能领先于恶意AI是不现实的。
最终,如果组织未能记录代理特权、验证AI输出并保持监督,它们可能侵蚀PCI DSS对访问控制、可审计性和安全认证的基础要求。
问:对于刚开启AI使用之旅的组织,您有什么建议?
从基础开始,询问“为什么”的问题。我经常听到金融机构被告知“使这成为AI流程”,却没有明确价值。正确的切入点是识别明确增强安全性、效率或合规结果的用例(尽管在任何预算请求中添加“AI”似乎有助于优先处理项目)。
然后明智地进行试点。选择可管理范围,给予足够持续时间,并指定内部负责人监控AI行为和结果。像对待PCI DSS环境中的新供应商或系统一样对待它:在小规模证明有效后再广泛扩展。
接下来,严格测试。每个新AI模型或参数更新都应针对一组基线问题进行检查,确保它没有意外改变结果。与可以自动应用的传统补丁不同,AI更新可能以对您的业务和合规性至关重要的方式微妙改变行为。
最后,将所有内容编入AI政策。约三分之二的公司现在在年度评估中将AI报告为风险。将AI治理嵌入您现有的信息安全政策——PCI DSS要求12已经要求——确保组织内的一致性,并为外部审查做好准备。
问:您对哪个AI趋势(不限于支付)最感兴趣?
我对重复性、文档密集型任务的自动化感到兴奋。对于商户和服务提供商,PCI DSS证据收集一直是资源密集型的。AI现在有望简化控制映射、生成合规叙述并动态维护文档库。这使得持续评估更高效且干扰更小。
在更技术层面,我对模型上下文协议和代理到代理协议的快速采用感到鼓舞。这些普遍接受的协议充当AI代理与应用(或其他代理)之间的翻译器,标准化系统通信方式。对组织而言,这意味着减少供应商锁定、改进互操作性,以及更清晰的AI采用治理模型。
标准化在安全领域常常是无名英雄。正如PCI DSS本身为支付安全提供了共同基础,这些AI通信协议可以创建一致性,加速采用同时为每个在其AI旅程中的人降低系统性风险。
有兴趣了解更多?立即注册观看Troy Leach在2025年欧洲社区会议上的演讲,他将带来以AI为主题的演示《问题不在你,而在我们——与您的服务提供商建立共同安全责任模型的策略》。
注册参加欧洲社区会议 了解更多关于云安全联盟的信息