AI智能体与API消费增长
随着AI智能体变得越来越智能,API也必须同步演进。Kong公司CTO Marco Palladino指出,API消费正由用例驱动快速增长。移动端和云原生生态已经推动了API的使用,而AI技术现在创造了比以往多10倍的API流量。
MCP协议:智能体的新标准
MCP(Model Context Protocol)是一种专为智能体设计的新协议,它使工具的宣传和消费变得更加简单直观。从技术角度看,MCP本质上是一种API协议,与REST或GraphQL类似,但更适应智能体生态系统。
构建智能体时,人们往往过于关注LLM模型的选择,但实际上,让智能体能够访问API或MCP服务器来与第三方数据和服务交互同样重要——甚至更为关键。没有这些集成,即使是最智能的模型也无法发挥其全部潜力。
MCP服务器的挑战与机遇
组织正在现有的RESTful API之上构建MCP封装器,但这带来了多重挑战:构建、部署、扩展、保护和观察这些服务器都需要大量工作。最新的MCP规范描述了安全集成,使得保护MCP服务器访问成为可能。
目前最大的挑战之一是如何在一系列被消费的MCP工具中模拟最终用户。大多数MCP服务器目前用于内部环境,但如果要创建面向最终用户的智能体,就需要能够在整个命令链中模拟最终用户身份。
智能体经济的未来展望
未来,智能体将成为互联网的新用户。我们不再通过网站或前端与服务交互,而是通过提示词(prompt)来请求智能体执行任务。例如,不再浏览Airbnb网站,而是直接要求智能体"为我在纽约找到符合偏见的住宿"。
这种转变将创造全新的互联网——智能体互联网(agentic internet),随之而来的将是一整套新技术、新规范,以及智能体之间竞争使用第三方服务的新生态。
企业AI采用与基础设施需求
调查显示,72%的IT领导者计划在未来一年增加LLM消费。同时,企业对治理、安全和防护措施的关注日益增加。没有完整的所有权了解"智能体在做什么、与什么数据交互、是否分享了不该分享的内容",就无法在生产环境中部署智能体。
从实验转向生产时,需要构建大量基础设施:可观测性、模型访问层级、PII清理策略、防止提示注入攻击的安全防护等。平台团队现在需要提供能够默认在安全、可观测、可治理的基础设施上运行智能体的平台。
AI可观测性与成本优化
可观测性需求从基础的理解"什么智能体在消费什么模型",深入到理解令牌消耗、支出生成、PII发送情况,再到更高级的决策追踪和审计——了解是什么标准或参数导致智能体做出特定决策。
在成本优化方面,Kong等平台提供基于每令牌的成本关联,使组织能够看到哪些智能体花费最多。语义路由可以将简单提示路由到更便宜的模型,而更复杂的提示则路由到更强大但也更昂贵的推理模型。提示压缩能力可以节省高达5倍的令牌消耗,同时保留80%的语义含义。
AI采用的战略思考
对于是否使用AI的问题,应该思考:在现有的数千个业务流程中,哪些可以通过AI驱动,从而将宝贵的人力资源重新分配到更复杂的问题上?竞争对手正在日夜不停地使用AI替代相同的业务流程,长期来看,这将产生决定性差异。
AI不会取代工作,而是会让工作随着创新而演变。人类将更专注于自己更擅长解决的任务,而AI则处理那些繁忙工作——如果有什么东西可以以自主和智能的方式完成这些工作,我们本就不应该花时间去做。