AWS re:Invent 2025发布:自主AI语音与多云网络连接技术详解

在AWS re:Invent 2025大会上,亚马逊云科技发布了基于Nova Sonic语音模型的自主AI智能体,以及联手谷歌云推出的多云网络互联解决方案,旨在革新客户服务交互与云基础设施连接方式。

在拉斯维加斯举办的AWS年度re:Invent 2025大会上,亚马逊云科技对其基于云的联络中心平台Amazon Connect进行了一系列重大升级,其中最引人注目的是引入了由先进的Nova Sonic语音模型驱动的“自主AI智能体”。这些智能体不仅能进行自然对话,还能独立推理并代表人类坐席执行任务[citation:2][citation:5]。

在基础设施方面,AWS也宣布了一项罕见的举措——与谷歌云建立合作伙伴关系,推出了AWS Interconnect – Multicloud的预览版。该解决方案旨在解决企业在管理多云网络连接时长期面临的复杂性问题[citation:3][citation:6]。

🤖 自主AI智能体:具备推理与行动能力

此次Amazon Connect更新的核心是整合了自主AI智能体的自助服务能力。通过使用Nova Sonic模型,新的AI智能体能够以模仿人类对话的语调、节奏和口音进行交流,处理多语言输入,并流畅地响应客户需求[citation:2][citation:7]。

更重要的是,AWS强调这些AI智能体同时具备推理和行动能力。在与客户互动时,智能体能够分析语义和情绪线索,并通过准备文档、处理常规工作流程和执行后台任务来主动协助人工坐席[citation:2][citation:8]。这实现了真正的人机协作:AI处理繁琐的后端流程,而人类坐席则可以专注于客户关系和更复杂的案例。

对于已经依赖第三方语音技术的客户,Amazon Connect现在也整合了来自Deepgram和ElevenLabs等供应商的解决方案。同时,为了加强可审计性和合规性,AWS同步推出了针对AI智能体的“可观测性”功能。企业可以精确查看AI理解了什么、调用了哪些工具以及它是如何做出决策的,从而优化性能并建立用户信任[citation:2]。

🔗 语音技术深度集成与多云网络突破

与此同时,语音AI供应商Deepgram宣布,其先进的语音技术正在进入AWS生态系统。其实时语音转文本、文本转语音以及语音智能体能力将直接集成到Amazon SageMaker AI、Amazon Connect和Amazon Lex中[citation:2]。这种集成使企业能够在AWS的安全环境中构建亚秒级延迟的实时语音应用,显著提升自动化交互的响应速度和流畅度。

在云基础设施方面,AWS和谷歌云联合推出了AWS Interconnect – Multicloud的预览版,并发布了一项用于跨云网络互操作性的新开放标准[citation:3][citation:6]。该方案融合了AWS Interconnect与谷歌云的Cross-Cloud Interconnect技术,使企业能够在两家云提供商之间建立专用的高带宽私有连接[citation:3][citation:9]。

过去,企业在跨云连接工作负载时面临两难选择:要么依赖没有带宽保证的公共互联网,要么处理构建私有链路的复杂性[citation:3]。通过这项完全托管的服务,企业可以通过AWS控制台或API快速配置云到云连接,从而显著减少管理物理设备或虚拟路由器带来的开销[citation:3]。AWS还在GitHub上发布了开放的API套件,鼓励更多服务提供商加入互联生态系统[citation:3]。

🚀 面向AI时代的技术演进

这并非谷歌云首次与AWS在跨云集成方面进行合作。早在2020年,谷歌云就推出了BigQuery Omni,实现了跨谷歌云和AWS的跨云搜索,后来还扩展到了微软Azure[citation:2]。

在当今由AI驱动的背景下,谷歌云今年还推出了A2A协议,使其AI智能体服务能够跨云边界运行[citation:2]。微软后来也加入了该标准,而AWS最近同样宣布予以支持,这为AI系统在多云环境中无缝交互铺平了道路[citation:2]。

随着AWS深化与谷歌云的跨云合作伙伴关系,两家提供商有望加速开发更多跨云能力,以应对快速演进的AI时代需求[citation:2][citation:9]。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计