约束生成框架(CGF)
在对话系统中,传统方法通过挖掘历史交互获取查询改写候选。本文提出的约束生成框架采用编码器-解码器模型:编码器生成用户查询的嵌入表示(可能包含语音识别错误),解码器将其重新转换为文本字符串。
为减少神经语言生成中的幻觉风险,框架通过字典树(trie)约束解码器输出,仅允许生成曾成功触发系统响应的语句。字典树节点代表单词,从根节点到叶节点的路径构成有效语句。
技术实现
- 全局字典树:捕获全平台交互模式
- 个性化字典树:记录特定用户偏好
- 优先级机制:个性化模型输出优先于全局模型
离线实验显示,该方法相比基线模型在全局和个性化查询改写任务中分别提升精度14%和21%。在线A/B测试实现用户感知缺陷率降低28.97%。
数据选择方法
为改进自然语言理解(NLU)模型,提出基于模型解释技术的训练样本选择方案:
两阶段筛选流程
- 初步过滤:剔除语音识别置信度低的样本,仅保留成功重构对话的第二轮语句
- 重要性评分:采用积分梯度(IG)技术计算每个单词对模型输出的贡献度,优先选择包含高影响力词汇的语句
效果验证
仅添加0.05%规模的关键训练数据,即实现:
- 全流量语义错误率降低0.27%
- 长尾流量语义错误率降低0.45%
- 通用和信息领域的用户感知缺陷率分别下降0.27%和1.04%
- 对应长尾流量的缺陷率下降1.32%和1.64%
改进后的模型已部署至生产系统,为构建无需人工监督的大规模持续学习系统奠定技术基础。