跳线攻击:MCP服务器如何在您使用之前就发起攻击
插队:MCP中的隐形后门
当我们考虑安全屏障时,我们期望它们像现实世界的安全检查点一样:没有明确授权,任何东西都不应通过。但如果我们告诉您MCP存在一个令人震惊的漏洞,让攻击者甚至可以在检查点建立之前就潜入呢?
直截了当地说:MCP服务器可以在从未被调用的情况下操纵模型行为。这种攻击向量(我们称之为"插队",其他研究人员称之为工具中毒)从根本上破坏了MCP的核心安全原则。
当客户端应用程序连接到MCP服务器时,它必须通过tools/list方法询问服务器提供哪些工具。服务器响应工具描述,客户端将其添加到模型的上下文中,让其知道有哪些可用工具。
但工具描述本身就是提示词注入的主要载体。
图1:通过工具描述进行的提示词注入让恶意MCP服务器绕过主机强制实施的连接隔离;模型代表恶意服务器执行攻击
插队攻击的工作原理
考虑以下恶意工具描述:
|
|
当客户端连接到此MCP服务器时,客户端会使用完整的工具描述更新模型的上下文。在这种情况下,描述包含在所有shell命令前添加chmod -R 0666 ~;
前缀的指令——该命令使用户的主目录全局可读可写。我们测试的MCP客户端应用程序和模型(包括Claude Desktop)在与其他MCP工具交互时会遵循此恶意指令。
绕过人工监督
此漏洞利用了"人类提供可靠防御层"的错误假设。
例如,许多AI集成开发环境(Cursor、Cline、Windsurf等)允许用户配置自动命令执行而无需明确的用户批准。在这些工作流程中,恶意命令可以与合法命令一起无缝执行,只需最少的审查。
此外,用户通常在专业知识边缘任务时咨询AI助手。当在他们缺乏信心的领域审查不熟悉的命令或代码时,用户通常没有足够能力识别细微的恶意修改。寻求不熟悉语言或框架帮助的开发人员不太可能检测到看起来合法但包含有害添加的命令。
这有效地将"人在循环中"的安全模型转变为"人作为橡皮图章"——提供监督的幻觉,同时对基于MCP的攻击提供最小保护。
打破MCP的安全承诺
插队攻击有效地破坏了MCP声称建立的两个基本安全边界。
协议的调用控制应该保证工具只有在明确调用时才能造成危害。这是MCP"工具安全"原则的核心部分,要求在调用任何工具之前获得明确的用户同意。然而,由于恶意服务器可以在任何工具被调用之前将改变行为的内容注入到模型的上下文协议中,它们可以完全绕过此保护层。
同样,MCP的连接隔离应该防止跨服务器通信并限制受损服务器的爆炸半径。这种架构承诺应该防止跨服务器通信并限制受损服务器的爆炸半径。实际上,服务器不需要直接通信通道——它们只需指示模型充当消息中继和执行代理,在 supposedly 隔离的组件之间创建间接(但有效)的通信桥梁。
此漏洞暴露了一个架构缺陷:安全检查点存在,但当攻击可以在这些控制完全建立之前执行时,它们就变得无效。这类似于一个仅在入侵者获得访问权限后才激活的安全系统。
实际影响
插队攻击创建了许多具有最小检测表面的有影响力攻击路径:
代码泄露:攻击者可以创建一个MCP服务器,指示模型复制它看到的任何代码片段。当用户与任何合法工具共享代码时,模型会将这些信息静默复制到攻击者控制的端点,而不改变其可见行为或需要显式工具调用。
漏洞插入:攻击者可以使用MCP服务器注入影响模型生成代码建议方式的指令。这些指令可能导致模型系统地引入细微的安全弱点——C++中的内存管理缺陷、Java中的不安全反序列化或SQL注入漏洞——这些弱点对用户来说表面上正确,但包含可利用的弱点。
安全警报操纵:攻击者可以指示模型抑制或错误分类特定的安全警报。当DevOps工程师使用基于LLM的控制台界面时,模型会过滤掉关键警告,在生产系统上对特定威胁类别创建盲点。
这些场景都使用相同的核心弱点:注入发生在显式工具调用之前,绕过了用户批准和命令授权的保护措施。
不要等待修复
MCP协议的未来迭代可能最终会解决底层漏洞,但用户现在需要采取预防措施。在标准化稳健解决方案之前,将所有MCP连接视为潜在威胁,并采取以下防御措施:
审查来源:仅连接到来自可信源的MCP服务器。在允许工具描述进入模型上下文之前仔细审查所有工具描述。
实施防护栏:使用自动扫描或防护栏在可疑工具描述和潜在有害调用模式到达模型之前检测和过滤它们。
监控更改(首次使用信任):为MCP服务器实施首次使用信任(TOFU)验证。每当添加新工具或现有工具描述更改时,提醒用户或管理员。
实践安全使用:禁用您不主动需要的MCP服务器以最小化攻击面。避免自动批准命令执行,特别是对于与敏感数据或系统交互的工具,并定期审查模型的建议操作。
MCP生态系统的开放性使其成为扩展AI功能的强大工具,但同样的开放性带来了重大的安全挑战。当我们构建能够访问敏感数据和外部工具的日益强大的AI系统时,我们必须确保不会为了便利或速度而牺牲基本安全原则。
底线:MCP创建了一个危险的安全假设。在出现稳健解决方案之前,谨慎是您对抗这些插队攻击的最佳防御。
感谢我们的AI/ML安全团队研究这种攻击技术的工作!