Buoyant Announces MCP Support for Linkerd, Extending Service Mesh Capabilities to Agentic AI Traffic
Buoyant,开源服务网格Linkerd的背后的公司,宣布Linkerd现已支持模型上下文协议,使其成为首个能够在Kubernetes环境中原生管理、保护和观测智能体AI流量的服务网格。此举旨在通过为AI驱动的工作流提供一个稳定、安全且完全可观测的运行环境,加速企业AI的采用。AI驱动的工作流的行为与传统基于API的应用程序不同。
这一公告发布之际,企业正越来越多地集成依赖MCP的AI智能体。MCP是一种协议,使模型能够通过持久、长生命周期的会话访问外部工具、数据源和上下文。与传统的请求-响应API不同,MCP驱动的智能体工作负载具有不可预测性、有状态性,并且可能产生密集的资源峰值,这给那些缺乏针对这种新流量模式的可见性或安全控制措施的组织带来了挑战。
Buoyant的首席执行官William Morgan强调了这一紧迫性:
“企业渴望利用AI进行创新,但他们不能以牺牲安全态势和应用程序可靠性为代价。Linkerd通过将其已验证的能力扩展到MCP流量来解决这个问题……为组织提供工具,让他们能够满怀信心地加速AI应用。”
Linkerd即将推出的MCP支持为核心网格能力带来了可见性、访问控制和流量整形,这些能力无需额外的工具或架构变更即可应用于智能体AI工作负载。企业将获得关于提示使用、延迟、故障率和资源消耗的指标,以及基于密码学工作负载身份对所有MCP调用的零信任访问控制。通过将这些能力整合到网格本身,Buoyant将Linkerd定位为既能处理传统微服务流量,又能处理新兴AI智能体通信的统一控制平面。
早期用户表示这填补了企业AI准备度方面的空白。Imagine Learning的高级工程师Blake Romano指出,最初对MCP安全性的担忧减缓了他们的内部推广。他补充说,Linkerd现有的安全态势和可观测性功能"消除了采用过程中的一个主要障碍",提供了对智能体行为的可见性,并赋予了安全扩展AI计划的信心。
Buoyant最近于2025年11月10日至13日在亚特兰大举行的KubeCon North America上展示了MCP支持。此后,该功能已开始在开源Linkerd和Buoyant的企业发行版中全面推出。虽然其他网格和API平台可以代理MCP流量,但目前没有将其视为一等公民协议的,这使得企业不得不通过为传统无状态API构建的基础设施来协调AI智能体。
Istio以及其他基于Envoy的网格,如Kuma和Kong Mesh,为微服务提供了强大的安全性和可观测性。然而,这些网格缺乏对MCP长生命周期、有状态会话的直接感知。为了管理AI智能体工作流,组织必须加入定制的Envoy过滤器或边车扩展。这引入了操作复杂性,并且仍然只能提供对智能体行为(如提示流、会话生命周期或工具调用模式)有限的可见性。
虽然Envoy的可扩展性理论上支持更深度的集成,但目前没有发行版提供开箱即用的MCP功能。这给企业留下了安全和可观测性方面的空白,特别是当AI工作负载产生超出这些网格最初设计处理范围的不可预测流量峰值时。
HashiCorp的Consul提供了强大的应用身份、服务发现和基于ACL的流量授权。然而,其网格功能仍集中在传统的微服务上。MCP流量被作为通用的L4或L7流处理,缺乏跟踪智能体状态、测量提示行为或将细粒度零信任策略应用于模型-工具交互所需的协议特定语义。因此,使用Consul的组织仍然需要额外的工具来安全部署智能体工作负载。
Kong、Apigee、NGINX和Ambassador等现代网关在管理API入口方面发挥着至关重要的作用,但它们并未针对MCP驱动的AI流量进行设计。网关擅长保护和塑形离散的HTTP请求;相比之下,MCP依赖于持久会话、流式上下文和可能完全绕过网关强制的多步骤智能体工作流。这限制了它们强制执行每个工具的授权、跟踪智能体推理步骤或监控长时间交互中令牌使用情况的能力。
通过将MCP直接集成到网格数据平面,Linkerd引入了当前服务网络生态系统中尚不存在的功能。这些功能包括:对AI智能体调用的密码学强制零信任、对提示流和会话行为的深度可观测性,以及为智能体工作负载的突发性特性设计的自适应流量整形。