AI配置最佳实践:应对AI安全风险
背景
随着众多公司采用AI来提高生产力并创造新的商业机会,AI的使用正在上升。根据麦肯锡的全球AI调查,65%的受访者表示他们的组织定期使用生成式AI,这一比例比十个月前几乎翻了一番。组织已经从生成式AI的使用中看到了实质性好处,报告称部署该技术的业务部门既降低了成本又增加了收入。
尽管AI为组织带来了新的激动人心且有利可图的机会,但它也是许多组织的最新攻击面,因为安全性往往落后于新技术的部署。
AI攻击策略与安全风险
AI攻击策略
使用生成式AI的公司数量正在爆炸式增长,这种为满足市场需求的快速采用可能导致公司忽视安全最佳实践。这项新技术的快速采用意味着云架构师、安全专业人员和开发人员可能都没有接受过安全部署生成式AI服务的培训或指导。此外,最近还出现了诸如Qubitstrike活动之类的攻击,其中暴露在互联网上的AI模型笔记本被利用来获取云提供商凭证和进行加密货币挖矿;还有ChatGPT Microsoft Windows 11祖母漏洞,其中通过提示注入欺骗ChatGPT泄露Windows 11的免费密钥。
威胁行为者越来越多地使用生成式AI(GenAI)来制作有针对性的钓鱼邮件。然而,同样的GenAI也可以帮助识别诈骗和安全威胁。
安全风险
以下是使用AI服务时可能出现的安全风险:
- OWASP LLM和生成式AI应用十大风险
- 提示注入:可能导致敏感信息泄露和声誉损害
- 不安全的输出处理:可能导致跨站脚本和远程代码注入
- 训练数据中毒:有毒信息可能呈现给用户或造成其他风险,如性能下降、下游软件利用和声誉损害
- 模型拒绝服务:影响AI服务的可用性,导致用户质量下降以及AI服务所有者意外的高资源成本
- 敏感信息泄露:LLM有可能通过其输出泄露敏感信息、专有算法或其他机密细节。当LLM使用敏感数据(如个人可识别信息PII)进行训练并将该数据公开时,可能发生这种情况
- 过度代理:这种漏洞使得能够根据LLM的意外/模糊输出执行破坏性操作
- 过度依赖:当LLM产生错误信息并以权威方式提供时可能发生。当人员或系统在没有监督或确认的情况下信任这些信息时,可能导致安全漏洞、错误信息、沟通失误、法律问题和声誉损害
- 模型盗窃:当竞争对手或攻击者窃取训练模型(有价值的知识产权)和/或训练数据以创建类似的生成式AI服务时发生
这些问题的影响可能对未能对其生成式AI产品实施安全控制的组织造成损害。未能对生成式AI产品实施安全控制可能对组织产生不利影响,包括失去客户信任、诉讼、声誉损害和收入损失。
如何防范AI安全问题?
根据最佳实践配置AI云服务可以通过防止上述安全问题来确保AI服务的安全。以下是趋势科技推荐的一些AI最佳实践:
AWS AI最佳实践
配置Amazon Bedrock防护栏的敏感信息过滤器 Amazon Bedrock防护栏是旨在确保安全负责任使用Amazon Bedrock提供的AI服务的安全措施。它们帮助管理数据隐私、防止滥用并保持法规合规性。防护栏可以检测输入提示或基础模型(FM)响应中的敏感信息,如个人可识别信息(PII)。您还可以通过使用正则表达式(regex)定义特定于您的用例或组织的敏感信息。Amazon Bedrock防护栏提供两种行为模式来过滤敏感信息。
此最佳实践帮助客户识别任何未配置防护栏的Bedrock资源。防护栏是一项重要的安全措施,用于从AI响应和用户输入中过滤敏感信息。客户不应在敏感数据上训练AI;但是,防护栏应作为额外的安全层,确保训练模型中意外包含的任何敏感数据在响应中被过滤。
禁用笔记本实例的直接互联网访问 此最佳实践确保您的Amazon SageMaker Studio笔记本实例不允许通过直接互联网访问功能与互联网通信。为了增加安全控制,请确保与您的笔记本实例关联的Amazon SageMaker域配置为使用仅VPC网络访问类型。当启用"仅VPC"时,所有SageMaker Studio流量都通过您的安全VPC子网路由,默认情况下禁用互联网访问。
Microsoft Azure AI最佳实践
禁用对OpenAI服务实例的公共网络访问 当Azure OpenAI服务实例可公开访问时,所有网络(包括互联网)都可以访问该实例,增加了未经授权访问、潜在安全漏洞和合规违规的风险。为了限制对选定的受信任网络的访问,您必须为OpenAI实例配置网络访问规则。这允许仅来自您的Azure虚拟网络(VNets)或受信任IP地址的授权流量与OpenAI实例交互,防止未经授权的访问尝试并保护您的AI工作负载和数据。
为Azure机器学习工作区使用系统分配的托管身份 此最佳实践确保您的Azure机器学习(ML)工作区使用系统分配的托管身份,以便安全访问其他Microsoft Azure受保护资源,如密钥保管库和存储帐户。为Azure ML工作区使用系统分配的托管身份通过允许ML工作区在没有显式凭据的情况下与Azure资源进行身份验证和授权来增强安全性,降低了与凭据管理相关的风险,并提供了与其他云服务的无缝和更安全的集成。
GCP AI最佳实践
禁用工作台实例的根访问 此最佳实践确保禁用对Google Cloud Vertex AI笔记本实例的根访问,以便通过限制实例内的管理权限来减少意外或恶意系统损坏的风险。禁用对Google Cloud Vertex AI笔记本实例的根访问可以最小化未经授权修改的风险,通过防止超级用户权限的潜在滥用或利用来增强安全性,并有助于维护更受控制和安全的AI环境。
使用客户管理的加密密钥进行Vertex AI数据集加密 此最佳实践确保您的Google Cloud Vertex AI数据集使用客户管理的加密密钥(CMEK)进行加密,以便完全控制数据加密和解密过程。
默认情况下,Google Cloud使用Google管理的加密密钥(GMEK)自动加密Vertex AI数据集(数据项和注释)。然而,对于具有严格合规性和安全要求的组织,CMEK可以作为现有数据加密之上的额外安全层实施,因为它为组织提供对Vertex AI数据集加密的控制和管理。
关于趋势科技AI安全状况管理
趋势科技ASRM for Cloud AI安全状况管理检测配置错误的AI服务,并提供分步修复指南来修复这些错误配置。它还识别云身份风险和可能被利用的潜在攻击路径。
要了解有关趋势科技Cloud ASRM AI SPM的更多信息,请查看这些资源: https://www.trendmicro.com/en_us/business/products/hybrid-cloud.html#tabs-4092ca-1