AI推动机密计算的普及:机遇与挑战并存

本文探讨了AI如何加速机密计算技术的采用,分析了谷歌、Anthropic等头部AI厂商的应用实践,同时指出硬件厂商技术碎片化带来的安全挑战,以及金融、医疗等强监管行业的合规需求。

AI推动机密计算的普及

经过多年发展,机密计算技术正借助AI浪潮加速落地。谷歌和Anthropic等头部AI供应商近期加大投入,利用该技术保护AI模型和敏感数据免遭泄露。但这项技术仍面临硬件厂商实现方案碎片化等挑战。

HyperFrame Research首席分析师Steven Dickens指出:“经过多年实验的AI模型已进入生产环境,机密计算对解决数据安全和网络安全问题至关重要。这符合医疗、金融等受监管行业对安全AI日益增长的需求,这些领域的数据驻留和合规性至关重要。”

机密计算通过在硬件周围建立信任边界,防止应用程序被欺骗而向非受信用户或系统泄露机密。它通过创建加密处理环境来保护敏感数据,从而解决合规和安全问题。

Futuriom研究分析师Craig Matsumoto表示:“AI供应商正在企业普遍担忧AI安全的领域紧急部署机密计算。推理过程本身正变得复杂,意味着更多可能产生安全漏洞的组件。“他指出,AI代理会促使更多数据流动,可能从多个来源引入新数据。金融和医疗等强监管行业使用AI做关键决策,带来了机密计算旨在解决的新安全挑战。

头部AI厂商的实践

谷歌目前提供专有Gemini模型的自定义版本,客户可在无网络连接的服务器上本地运行。该模型基于英伟达GPU运行,后者提供了锁定AI模型的安全环境。谷歌云基础设施与解决方案副总裁Sachin Gupta表示:“我们需要在本地运行的最大原因是要能保护模型本身,企业处理的是非常敏感的数据。”

提供Claude AI模型的Anthropic上月宣布创建名为"机密推理"的可信环境,以保护用户数据和模型权重隐私。其目标是对内存中的AI数据进行加密隔离,防止被盗和攻击。Fortanix首席AI官Richard Searle认为,这是Anthropic作为AI服务提供商的差异化尝试,也展示了AI模型的完整性。

硬件碎片化挑战

目前缺乏统一行业标准来整合不同的机密计算技术。在多个机器间迁移工作负载会使认证和信任验证过程复杂化,可能引入漏洞。安全公司Binarly CEO Alex Matrosov指出:“当前现实是我们缺乏多个计算栈供应商间的无缝信任转换。”

现有GPU实现依赖AMD EPYC处理器创建可信环境,而英伟达H100 GPU处理数据认证。但随着CPU和GPU集群间工作负载切换增多,可能产生更多安全缺口。英伟达企业AI产品副总裁Justin Boitano表示,公司正与合作伙伴共同实施全栈机密计算技术,因为仅认证GPU是不够的,需要系统级测试。

未来展望

Boitano预测:“长远来看,数据在传输或静态时都将加密。我们认为一切都应以机密方式运行。“Fortanix的Searle指出,通过行业努力或NIST等政府机构制定统一标准可减少碎片化,但"这需要时间定义验证,以及漫长的产品开发周期来实现”。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计