客户交互式教学的新语音助手功能

本文介绍了一种基于深度学习的交互式教学系统,使语音助手能够通过对话学习用户自定义概念,包括理解差距检测、概念解释、对话管理和声明推理等技术模块的实现原理。

今天在某中心总部,设备高级副总裁发布了其组织的最新产品和服务阵容。在演示过程中,某中心副总裁兼语音助手首席科学家描述了语音助手科学团队的三项新进展,其中之一就是客户的交互式教学功能。

去年推出了自学习功能,使语音助手能够根据用户重新表述请求或打断语音助手响应等线索自动纠正理解错误。如今数百万用户正享受这一功能带来的便利。但当用户提出语音助手不知道如何解释的请求时该怎么办?为了让用户直接帮助语音助手学习正确解释,开发了语音助手与用户进行实时交互式教学会话的能力,可以动态学习新概念,将这些概念推广到新情境,并将其与用户账户关联。

例如,如果用户说“语音助手,将客厅灯光设置为学习模式”,语音助手现在可能会回应:“我不知道学习模式是什么。您能教我吗?”语音助手会从用户的回答中提取定义,当用户后续提出相同或类似请求时,语音助手就会执行学到的操作。

与用户在语音助手应用中通过设置常规程序将动作与语音触发器关联不同,交互式教学让语音助手能够通过对话询问未知或未解决的概念,以完成原本会失败的任务。交互式教学使语音助手能够学习两种不同类型的概念:一种是实体概念,如前述示例中的“学习模式”;另一种是声明性概念,即学习如何解释伪装成声明的指令,例如“语音助手,这个房间太暗了”。

交互式教学是一种对话式AI解决方案,使用多个深度学习模型的预测来确定教学会话中的下一个输出。这些模型具有四个主要功能:

  • 理解差距检测:自动识别语音助手中不理解的话语部分
  • 概念解释:从与用户的交互中引导并提取概念定义
  • 对话管理:保持关于新概念的对话不偏离轨道
  • 声明推理:评估语音助手可用的动作,寻找与声明性指令的最佳匹配

语音助手的自然语言理解模型通过领域和意图对用户话语进行分类,并识别话语中的槽位和槽位值。当排名靠前的槽位概率较低时,理解差距检测模型会识别学习新槽位概念的机会。该模型还经过训练能够拒绝某些话语。

当用户参与教学会话时,概念解释模型从用户的自由形式语音中引导并提取新概念的解释。例如,用户可能通过“我通常晚上学习时将灯光设置为50%亮度”来回应“学习模式是什么意思?”的问题。概念解释模型会从该话语中提取“50%亮度”短语,并将其存储为“学习模式”的定义。

对话管理模型检查用户对问题的回答是否在问题范围内。例如,当语音助手询问“学习模式是什么意思?”时,用户可能回答“设置为适合阅读的亮度级别”。该模型会识别出该回答未提供合适的概念定义。每次引导定义失败后,对话管理器会降低后续问题的复杂度。

最后,声明推理模型结合机器学习和机器推理来预测与用户声明性话语对应的动作。该模型还有助于验证所选动作在声明性话语的上下文中语义是否合适,然后再决定存储以供将来重用。

成功完成教学会话后,先前学到的概念可以在相关上下文中重复使用。例如,当用户教会语音助手在客厅中“学习模式”意味着将灯光设置为50%时,语音助手知道在办公室中也应用相同的概念。类似地,如果用户教会语音助手通过开灯来响应“这里太暗了”这样的声明性话语,语音助手知道后续话语“我在这里什么都看不见”应该触发相同的动作。

除了自动泛化所教概念外,可教学AI功能还允许用户明确指示语音助手忘记最近学习的或所有已学习的概念。在推出时,客户交互式教学将首先适用于语音助手智能家居设备,并随时间推移扩展到其他功能。这不仅对语音助手而言是令人兴奋的进步,对最终用户明确教导AI服务也是如此。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计