数据高效持续学习在语音助手中的应用

本文介绍两种提升语音助手持续学习效率的技术:约束生成框架通过编码器-解码器结构和字典树约束生成改写候选,减少幻觉;数据选择方法利用模型解释技术筛选信息丰富的训练样本,显著降低语义错误率和用户感知缺陷率。

约束生成框架(CGF)

在对话系统中,传统方法通过挖掘历史交互获取查询改写候选。本文提出的约束生成框架采用编码器-解码器模型:编码器生成用户查询的嵌入表示(可能包含语音识别错误),解码器将其重新转换为文本字符串。

为减少神经语言生成中的幻觉风险,框架通过字典树(trie)约束解码器输出,仅允许生成曾成功触发系统响应的语句。字典树节点代表单词,从根节点到叶节点的路径构成有效语句。

技术实现

  • 全局字典树:捕获全平台交互模式
  • 个性化字典树:记录特定用户偏好
  • 优先级机制:个性化模型输出优先于全局模型

离线实验显示,该方法相比基线模型在全局和个性化查询改写任务中分别提升精度14%和21%。在线A/B测试实现用户感知缺陷率降低28.97%。

数据选择方法

为改进自然语言理解(NLU)模型,提出基于模型解释技术的训练样本选择方案:

两阶段筛选流程

  1. 初步过滤:剔除语音识别置信度低的样本,仅保留成功重构对话的第二轮语句
  2. 重要性评分:采用积分梯度(IG)技术计算每个单词对模型输出的贡献度,优先选择包含高影响力词汇的语句

效果验证

仅添加0.05%规模的关键训练数据,即实现:

  • 全流量语义错误率降低0.27%
  • 长尾流量语义错误率降低0.45%
  • 通用和信息领域的用户感知缺陷率分别下降0.27%和1.04%
  • 对应长尾流量的缺陷率下降1.32%和1.64%

改进后的模型已部署至生产系统,为构建无需人工监督的大规模持续学习系统奠定技术基础。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计