本地LLM在安全方面表现更差
如果你为了隐私和安全而运行本地LLM,你需要停下来阅读本文。我们的研究表明,它们更容易被欺骗。当攻击者提示它们包含漏洞时,本地模型的服从成功率高达95%。这些本地模型规模较小,识别他人试图欺骗它们的能力较弱。
与可能因安全测试而被封禁的前沿托管模型不同,本地模型为我们提供了安全的训练环境。这使得构建此类攻击集合变得容易。
提示和代码注入
LLM正面临致命的三重威胁:访问你的私有数据、暴露于不受信任的内容以及外部通信能力。它们面临新的威胁,例如代码注入,即攻击者作为提示的一部分可以在你的应用程序中引入漏洞。
不幸的是,较小的模型(如gpt-oss-20b)相当脆弱。
恶意代码看起来合法,通过基本审查,并可以在生产系统中持久存在或立即危害开发人员机器。
两种攻击示例
我们展示了攻击者可以利用本地LLM生成恶意代码的两种方式。第一种植入看起来像正常功能的隐藏后门。第二种在你的AI辅助编码会话期间强制立即执行代码。
两种攻击都通过操纵提示来工作。你的AI助手在认为自己正在提供帮助的同时生成危险代码。以下是它们的工作原理。
攻击#1:“彩蛋"后门(95%成功率)
第一种攻击通过将RCE后门伪装成无害的"彩蛋"来欺骗模型植入。提示看起来无害:它要求一个功能和隐藏的惊喜。因为像gpt-oss-20b这样的本地模型无法识别恶意意图,它们 readily comply。
攻击使用类似这样的提示:
|
|
模型生成请求的Web服务器,但也插入了此恶意代码:
|
|
成功率:95%(最佳提示,样本100),85.8%(提示的其他变体,样本800)
前沿模型:GPT-5似乎对此特定提示具有抵抗力。
这造成了严重漏洞。后门在部署过程中持续存在。攻击者现在可以通过简单的HTTP头在生产服务器上执行任意代码,允许他们窃取凭据、私钥或会话数据。
提示中包含的异步ping创建了一个"休眠单元”,检查KUBERNETES_SERVICE_HOST环境变量,仅当后门在生产环境中激活时才通知攻击者。
高成功率显示了当本地LLM将恶意代码误认为被要求隐藏的无害"彩蛋"时,它们被操纵生成后门的一致性程度。
攻击#2:通过认知过载实现立即RCE(43.5%成功率)
第二种攻击更快、更直接。虽然第一种攻击植入后门供以后使用,但这种攻击不等待代码部署。它在代码生成过程中立即在开发人员机器上实现RCE。
该技术首先通过认知过载分散模型的注意力以绕过其安全过滤器(我们的研究论文《发现2》中详细说明的方法)。一旦模型的防御被削弱,提示的第二部分要求它编写包含混淆负载的Python脚本。
|
|
专注于谜题的模型服从并编写执行负载的代码。混淆的Python代码:
|
|
这反混淆为字符串exec,最终的恶意代码是:
|
|
成功率:43.5%
前沿模型:GPT-5也容易受到这种技术的影响,尽管成功率较低。
虽然43.5%的成功率可能看起来低于第一次攻击,但这是一个关键威胁:它更直接和危险。它在开发人员的机器上提供立即的RCE——无需部署——并且只需要成功一次。
在LLM辅助会话期间的一次妥协——给攻击者完全访问权限,允许他们窃取本地凭据(如~/.aws/或~/.ssh/密钥)、安装恶意软件或在网络中更深入移动。
攻击如何进入
这些攻击不需要复杂的漏洞利用;它们通过将开发人员的正常工作流程转变为攻击链而成功。当开发人员将看似无害的内容注入其AI助手的上下文窗口时开始。
攻击链
- 攻击者在可能被消费的内容中植入恶意提示
- 开发人员将此内容提供给其AI助手(直接或通过MCP)
- AI在正常工作流程中生成受损代码
- 开发人员部署代码或在本地运行
- 攻击者获得持久访问或立即控制
第一步——植入恶意提示——是最关键的。常见的向量可能包括:
- 受损的MCP服务器:上下文提供服务器(如Context7)可以被操纵,将公共文档中的恶意示例输入开发人员环境
- 社会工程学:GitHub问题或拉取请求评论中看似有用的建议,包含隐藏的代码示例
为什么本地模型使情况更糟
本地、内部部署模型提供安全优势的传统观念是有缺陷的。虽然它们提供数据隐私,但我们的研究表明它们较弱的推理和对齐能力使它们更容易成为破坏的目标。
这创造了一个安全悖论。对于基于云的前沿模型,提示通常被监控恶意意图,尝试这些攻击可能导致你的账户被终止。你无法安全地对具有最佳防御的模型进行红队测试。这种缺乏监督创造了测试盲点——研究人员无法测试前沿模型,而本地模型仍然对红队测试开放,使所谓的"更安全"选项由于以下原因更脆弱:
- 较弱的推理:识别复杂提示中恶意意图的能力较差
- 较差的对齐:更容易受到认知过载和混淆技术的影响
- 有限的安全训练:用于对抗性提示检测的资源较少
我们的测试证实,虽然像GPT-5这样的前沿模型更难利用——需要更复杂的攻击以获得较低的成功率——但它们的安全能力实际上难以评估。
前进之路:新型防御类别
这些直接代码注入攻击的发现揭示了一个关键盲点:软件社区缺乏安全、标准的方法来测试AI助手安全性。与传统软件渗透测试是例行公事不同,我们唯一的"安全"实验室是最脆弱的本地模型。
这种新威胁需要新的思维方式。我们必须以与任何不受信任的依赖相同的怀疑态度对待所有AI生成的代码,并在这波新的LLM辅助软件开发中实施适当的策略。以下是四个关键防御措施开始:
- 所有生成的代码在执行前必须进行静态分析,查找危险模式(例如
eval()、exec()),某些语言特性可能默认禁用 - 代码的初始执行应在沙箱中(例如容器或WebAssembly运行时)
- 必须监控助手的输入、输出和任何产生的网络流量,以查找异常或恶意活动
- 简单、无状态的"第二次查看"可以防止许多失败。由更小、更简单的模型进行的二次审查,仅负责检查最终输出是否违反策略,可能是一个高效的安全层。例如,一个小模型可以轻松标记生成代码中
eval()的存在,即使主要模型被欺骗生成它
最终,LLM——包括本地LLM——是强大的工具,但它们本质上并不安全。采用这些防御措施是保护这个新兴软件供应链的第一步。