利用Transformer提升商品检索效果的技术解析

本文介绍了一种结合绝对反馈机制的创新学习排序方法,通过Transformer模型对商品列表进行整体评估,在大型电商搜索数据中显著提升检索效果。该方法能够处理无点击列表的反馈信号,突破传统相对排序模型的局限性。

背景介绍

当顾客在商品搜索结果列表中点击某个商品时,传统学习排序模型会将其视为该商品优于未点击商品的信号。这类模型通过 pairwise(对比结果对)或 listwise(评估结果在列表中的位置)方式利用隐式反馈改进搜索结果。

但这种方法存在绝对反馈缺失的问题:如果列表中没有商品被点击,说明所有结果都无用,而传统模型无法利用这一信息;同样,若顾客点击了列表中所有商品,可能表示所有结果都有用,也可能意味着搜索失败,但模型无法区分这两种情况。

技术创新

在某机构即将在KDD 2023会议上发表的论文中,研究团队提出了一种融合绝对反馈的新型学习排序方法。该方法借鉴自然语言处理中流行的Transformer模型,通过关注同一列表中商品间的差异来预测其被点击的相对概率。

核心机制

  • 绝对价值定义:为每个商品分配数值(未点击=0,点击=1,购买=2),列表的绝对价值取其成员中的最高值
  • Transformer架构:模型输入包含商品信息和特殊分类标识符,分别生成商品特征表示和列表整体表示
  • 双损失函数:商品得分和分类标识符得分在训练时通过不同的损失函数进行优化

注意力机制优势

Transformer的注意力机制能够根据上下文调整不同输入特征的权重。例如,模型可以学习到10美元的商品在20美元商品列表和5美元商品列表中的不同上下文意义。这种上下文感知能力使模型能够从无点击或购买的列表中学习。

实验验证

在三个公开数据集上的测试显示,梯度提升决策树(GBDT)模型表现最优,而新模型优于基准神经网络模型。但在某机构内部的大规模搜索数据中,新模型全面超越所有基线方法,包括强大的GBDT模型。

研究人员推测,这是因为公开数据集仅包含简单特征,而神经排序模型只有在数据集庞大且具有复杂分布特征时才能达到最优性能。

应用前景

基于在专有数据上的显著效果,该方法展示了从用户反馈中持续学习的潜力。点击和购买数据作为用户视角的直接体现,仍是排序问题中值得深入研究的信号源。

研究领域

信息检索与搜索

相关标签

学习排序、KDD

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计