计算机视觉如何助力在线购物
在计算机视觉顶会CVPR 2020上,某中心展示了三项互补性技术,通过神经网络提升商品发现效率。这些技术专注于服装零售场景,涵盖图像搜索优化、搭配推荐和虚拟试穿三大方向。
视觉语言商品发现系统
该系统允许用户通过文本描述修改商品图像(例如“添加浅色花卉图案”),核心挑战在于:1)融合文本与图像特征;2) 支持不同粒度修改(从“更正式”到具体细节);3) 保持未修改特征不变。研究团队通过三级神经网络实现分层匹配:底层处理纹理颜色等低级特征,高层处理版型等高级特征。每个融合阶段包含联合注意力机制(识别需保留特征)和转换网络(识别需修改特征)。实验表明,该系统匹配准确率较此前最优模型提升58%。
互补商品检索算法
传统兼容性预测系统难以应对大规模检索需求。新系统支持多商品输入(如上衣+裤子+外套推荐鞋子),其核心架构包含:
- 卷积神经网络提取商品图像向量
- 动态掩码机制生成子空间表示(不同子空间对应鞋类/手包等品类)
- 类别权重网络优先匹配相关特征 训练采用整体搭配评估标准,在填充准确率与兼容性曲线下面积两项指标上均超越此前最优模型,同时显著提升检索效率。
非配对数据虚拟试穿网络
此前方法需多角度服装图像训练,数据制备成本极高。新系统采用生成对抗网络(GAN),仅需单张图像即可训练,包含三阶段流程:
- 形状生成网络:结合查询图像模板与参考服装分割区域,更新体型模型
- 外观生成网络:编码纹理颜色信息,与形状表征合成逼真图像
- 外观优化网络:保持Logo等细节特征的同时优化轮廓 输出结果在视觉自然度上显著优于既往系统,下图对比显示(从左至右):查询样本、参考样本、旧系统输出、新系统未优化/优化输出。
所有系统均基于神经网络构建,体现了计算机视觉在电商领域的创新应用。