当顾客在商品搜索结果列表中点击某件商品时,暗示该商品优于未点击项。传统"学习排序"模型通过"成对比较"(对比结果对)或列表方式(判断结果在列表中的位置)利用这种隐式反馈改进搜索结果。但该方法存在缺乏绝对反馈的问题——例如当列表中无任何点击时,现有模型无法利用这一信息。
在KDD 2023会议上发表的论文中,提出了一种融合绝对反馈的新方法。该方法采用自然语言处理中流行的Transformer架构,通过注意力机制捕捉同一列表中商品间的差异特征。实验对比了标准神经网络模型和梯度提升决策树(GBDT)模型,在三个公共数据集上GBDT表现最优,但在某中心内部搜索数据中,新方法全面超越基线模型。
关键技术创新包括:
- 为商品列表定义绝对价值(0=未点击,1=点击,2=购买)
- 模型输入包含商品特征和分类标记(class token)
- 通过独立损失函数分别优化商品得分和列表整体得分
- 注意力机制动态加权不同商品特征
Transformer能够学习上下文敏感的特征表达,例如同一10美元商品在20美元商品列表和5美元商品列表中的不同权重分配。实验证明,在具有复杂特征分布的大规模数据集上,这种结合绝对反馈的神经排序器能实现最佳性能。该方法为利用用户点击和购买数据改进检索系统提供了新的研究方向。