AI配置最佳实践:提升AI安全性的关键策略

本文探讨了AI配置最佳实践,涵盖AWS、Azure和GCP的AI服务安全设置,包括敏感信息过滤、网络访问控制和加密管理,以防范提示注入、数据泄露等安全风险,确保企业AI部署的安全性。

AI配置最佳实践:提升AI安全性的关键策略

背景

AI使用率正在上升,许多公司采用AI以提高生产力并创造新的商业机会,为客户提供价值。根据麦肯锡的全球AI调查,65%的受访者表示其组织定期使用生成式AI,几乎是十个月前调查百分比的两倍。组织已经从生成式AI的使用中看到了实质性好处,报告称部署该技术的业务部门既降低了成本又增加了收入。

尽管AI为组织带来了令人兴奋且有利可图的机会,但它也是许多组织的最新攻击面,因为安全性往往滞后于新技术的部署。

AI攻击策略与安全风险

AI攻击策略

使用生成式AI的公司数量正在爆炸式增长,这种为满足市场需求的快速采用可能导致公司忽视安全最佳实践。这项新技术的快速采用意味着云架构师、安全专业人士和开发人员可能没有接受过安全部署生成式AI服务的培训或指导。此外,最近发生了诸如Qubitstrike活动之类的攻击,其中暴露在互联网上的AI模型笔记本被利用来获取云提供商凭证和进行加密挖矿;还有ChatGPT Microsoft Windows 11“祖母漏洞”,其中通过提示注入欺骗ChatGPT泄露Windows 11的免费密钥。

威胁行为者越来越多地使用生成式AI(GenAI)来制作有针对性的钓鱼邮件。然而,同样的GenAI可以帮助识别诈骗和安全威胁。

安全风险

以下是使用AI服务时可能发生的安全风险:

  • OWASP LLM和生成式AI应用十大风险
    • 提示注入:可能导致敏感信息泄露和声誉损害。
    • 不安全的输出处理:可能导致跨站脚本和远程代码注入。
    • 训练数据投毒:有毒信息可能呈现给用户或造成其他风险,如性能下降、下游软件利用和声誉损害。
    • 模型拒绝服务:影响AI服务的可用性,导致用户质量下降以及AI服务所有者意外的高资源成本。
    • 敏感信息泄露:LLM有可能通过其输出泄露敏感信息、专有算法或其他机密细节。当LLM使用敏感数据(如个人可识别信息PII)进行训练并将该数据公开时,可能发生这种情况。
    • 过度代理:这种漏洞使得在LLM产生意外/模糊输出时执行破坏性操作成为可能。
    • 过度依赖:当LLM产生错误信息并以权威方式提供时,可能发生过度依赖。当人员或系统在没有监督或确认的情况下信任这些信息时,可能导致安全漏洞、错误信息、沟通错误、法律问题和声誉损害。
    • 模型盗窃:当竞争对手或攻击者窃取训练模型(有价值的知识产权)和/或训练数据以创建类似的生成式AI服务时发生。

这些问题的影响可能对未能在其生成式AI产品上实施安全控制的组织造成损害。未能实施安全控制可能导致客户信任丧失、诉讼、声誉损害和收入损失。

如何防范AI安全问题?

根据最佳实践配置AI云服务,通过预防上述安全问题来确保AI服务的安全性。以下是趋势科技推荐的一些AI最佳实践:

AWS AI最佳实践

  • 为Amazon Bedrock防护栏配置敏感信息过滤器:Amazon Bedrock防护栏是旨在确保安全负责任地使用Amazon Bedrock提供的AI服务的安全措施。它们帮助管理数据隐私、防止滥用并保持法规合规性。防护栏可以检测输入提示或基础模型(FM)响应中的敏感信息,如个人可识别信息(PII)。您还可以通过正则表达式(regex)定义特定于您的用例或组织的敏感信息。Amazon Bedrock防护栏提供两种行为模式来过滤敏感信息。此最佳实践帮助客户识别任何未配置防护栏的Bedrock资源。防护栏是重要的安全措施,用于从AI响应和用户输入中过滤敏感信息。客户不应在敏感数据上训练AI;然而,防护栏应作为额外安全层,确保任何意外包含在训练模型中的敏感数据在响应中被过滤。

  • 禁用笔记本实例的直接互联网访问:此最佳实践确保您的Amazon SageMaker Studio笔记本实例不允许通过直接互联网访问功能与互联网通信。为了增加安全控制,请确保与您的笔记本实例关联的Amazon SageMaker域配置为使用仅VPC网络访问类型。当启用“仅VPC”时,所有SageMaker Studio流量都通过您的安全VPC子网路由,默认情况下禁用互联网访问。

Microsoft Azure AI最佳实践

  • 禁用对OpenAI服务实例的公共网络访问:当Azure OpenAI服务实例可公开访问时,所有网络(包括互联网)都可以访问该实例,增加了未经授权访问、潜在安全漏洞和合规违规的风险。为了限制对选定的受信任网络的访问,您必须为OpenAI实例配置网络访问规则。这允许仅来自您的Azure虚拟网络(VNets)或受信任IP地址的授权流量与OpenAI实例交互,防止未经授权的访问尝试并保护您的AI工作负载和数据。

  • 为Azure机器学习工作区使用系统分配的托管标识:此最佳实践确保您的Azure机器学习(ML)工作区使用系统分配的托管标识,以便安全访问其他Microsoft Azure受保护资源,如密钥库和存储账户。为Azure ML工作区使用系统分配的托管标识通过允许ML工作区在没有显式凭据的情况下对Azure资源进行身份验证和授权来增强安全性,减少了与凭据管理相关的风险,并提供了与其他云服务的无缝且更安全的集成。

GCP AI最佳实践

  • 禁用工作台实例的根访问:此最佳实践确保禁用对Google Cloud Vertex AI笔记本实例的根访问,以通过限制实例内的管理权限来减少意外或恶意系统损坏的风险。禁用根访问最小化未经授权修改的风险,通过防止潜在滥用或利用超级用户权限来增强安全性,并帮助维护更受控制和安全的AI环境。

  • 使用客户管理的加密密钥对Vertex AI数据集进行加密:此最佳实践确保您的Google Cloud Vertex AI数据集使用客户管理的加密密钥(CMEK)进行加密,以便完全控制数据加密和解密过程。默认情况下,Google Cloud使用Google管理的加密密钥(GMEK)自动加密Vertex AI数据集(数据项和注释)。然而,对于具有严格合规和安全要求的组织,CMEK可以作为现有数据加密的额外安全层实施,因为它为组织提供对Vertex AI数据集加密的控制和管理。

关于趋势科技AI安全态势管理

趋势科技ASRM for Cloud AI安全态势管理检测配置错误的AI服务,并提供逐步修复指南以修复这些错误配置。它还识别云身份风险和可能被利用的潜在攻击路径。要了解更多关于趋势科技Cloud ASRM AI SPM的信息,请查看这些资源:https://www.trendmicro.com/en_us/business/products/hybrid-cloud.html#tabs-4092ca-1

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计