人工智能与软件安全的桥梁:LLM代理部署范式的漏洞评估对比
大型语言模型(LLM)代理面临跨越AI特定领域和传统软件领域的安全漏洞,然而当前研究分别处理这些问题。本研究通过使用统一威胁分类框架对函数调用架构和模型上下文协议(MCP)部署范式进行比较评估,弥合了这一差距。我们在七种语言模型上测试了3250个攻击场景,评估了针对AI特定威胁(提示注入)和软件漏洞(JSON注入、拒绝服务)的简单、组合和链式攻击。函数调用显示出更高的总体攻击成功率(73.5%对比MCP的62.59%),具有更多以系统为中心的漏洞,而MCP表现出更多以LLM为中心的暴露。攻击复杂性显著放大了有效性,链式攻击实现了91-96%的成功率。反直觉的是,尽管高级推理模型具有更好的威胁检测能力,但表现出更高的可利用性。结果表明,架构选择从根本上重塑了威胁格局。这项工作为跨领域LLM代理安全评估建立了方法论基础,并为安全部署提供了基于证据的指导。代码和实验材料可在https://github.com/theconsciouslab-ai/llm-agent-security获取。