今天得空带来一篇分享,KDD’21的Applied Data Science Track中,淘宝搜索发表的一篇EBR文章[9]:Embedding-based Product Retrieval in Taobao Search。论文要讨论的几大问题提前预览下:
- 搜索场景中,query如何充分地进行语义表征?电商平台的query通常是短query,如何对有限长度的query进行充分的语义表征?
- 搜索场景中,用户历史行为序列如何建模?如何防止引入和当前query无关的历史行为导致相关性问题?
- 搜索场景中,基于向量的检索系统(EBR)如何保证相关性? EBR是基于向量的检索,不是完全匹配的检索,很容易检索到和当前query不相关的商品,那么该如何保证相关性?
下面按照Motivation,Solution,Evaluation和Summarization来介绍。
1. Motivation
研究对象:电商平台的商品搜索引擎(product search engines)。
整体淘宝搜索系统包括四阶段:match-prerank-rank-rerank,召回,粗排,精排,重排。本文重点在于召回。
挑战:电商平台的文本通常较短,没有语法结构,因此要考虑海量的用户历史行为。基于词匹配(lexical matching)的搜索引擎(倒排索引),性能好、可控性强,尽管存在一些语义鸿沟问题,但仍被广泛的应用在现有的搜索引擎架构中。但是,这种搜索引擎无法有效区分相同query下, 不同用户的兴趣差异,无法捕捉用户个性化的特征。因此,如何高效地检索出【最相关】、【最能够满足用户需求】的产品,发现【query语义】和【用户个性化历史行为】之间的关系,是电商平台主要的挑战。
工业界经典的EBR系统文章有,
电商平台:
- [1]亚马逊:Priyanka Nigam, Yiwei Song, Vijai Mohan, Vihan Lakshman, Weitian Ding, Ankit Shingavi, Choon Hui Teo, Hao Gu, and Bing Yin. 2019. Semantic product search. In Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. 2876–2885.
- [2]京东:Han Zhang, Songlin Wang, Kang Zhang, Zhiling Tang, Yunjiang Jiang, Yun Xiao, Weipeng Yan, and Wen-Yun Yang. 2020. Towards Personalized and Semantic Retrieval: An End-to-End Solution for E-commerce Search via Embedding Learning. arXiv preprint arXiv:2006.02282 (2020).
其它:
- [3] Facebook:Jui-Ting Huang, Ashish Sharma, Shuying Sun, Li Xia, David Zhang, Philip Pronin, Janani Padmanabhan, Giuseppe Ottaviano, and Linjun Yang. 2020. Embedding-based retrieval in facebook search. In Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. 2553–2561.
- [4] 百度:Miao Fan, Jiacheng Guo, Shuai Zhu, Shuo Miao, Mingming Sun, and Ping Li. 2019. MOBIUS: towards the next generation of query-ad matching in baidu’s sponsored search. In Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. 2509–2517.
- [5] Google:Tao Wu, Ellie Ka-In Chio, Heng-Tze Cheng, Yu Du, Steffen Rendle, Dima Kuzmin, Ritesh Agarwal, Li Zhang, John Anderson, Sarvjeet Singh, et al. 2020. Zero-Shot Heterogeneous Transfer Learning from Recommender Systems to Cold-Start Search Retrieval. In Proceedings of the 29th ACM International Conference on Information & Knowledge Management. 2821–2828.
作者指出上述大多数文章避重就轻,只强调在指标上提升很多,却没有说明向量召回会降低相关性,引入很多相关性的CASE。
作者也部署了向量检索系统在淘宝搜索中,观察了很长一段时间,有几个发现:
- 短期效果很好;长期来看,基于embedding的方法由于不是词匹配,即:缺乏【完整匹配(exact match)】query所有terms的能力,很容易造成相关性BAD CASE。
- 为了能够保证相关性,作者采用了一个相关性控制模块,来对检索到的商品做过滤。控制模块对EBR检索后的结果,做进一步的完整匹配过滤,只保留那些能够完整匹配结构化字段的商品,给到后续的排序阶段。作者统计了下,这几乎会过滤掉30%的商品,即:30%的商品相关性较低,被过滤的商品既耗费计算资源,又不能够参与到后续精排,导致本来可以进入后续排序的相关性商品无法进入排序,整体指标下降。
- 因此,本文的主要目标是期望基于向量的模型能够检索到更多相关的商品,有更多相关的商品能够参与到后续排序阶段中,从而在保证相关性的墙体下,提高整个系统的线上指标。
随机负采样在召回阶段被广泛使用,用于训练大规模的深度语义检索模型,来保证训练阶段的样本空间和推理阶段是一致的[2,3]。然而,仍然存在一些离线训练和线上推理不一致的情况[1,2]。例如,推理阶段,模型需要从所有的候选集中,选择和目标Query最相关的top-K个商品,需要一个全局的比较能力。而大部分工作如京东和亚马逊[1,2]都是采用hinge pairwise loss作为训练目标,而hinge pairwise loss本身只具备局部的比较能力。
这篇文章的核心贡献总结如下:
- 模型:提出了一种多粒度深度语义商品检索模型(Multi-Grained Deep Semantic Product Retrieval (MGDSPR) Model),能够动态地捕捉用户搜索语义和个性化交互历史行为的关系,兼顾语义和个性化。
- 训练和推理的一致性:为了保证训练和推理的一致性,使得模型具备全局比较能力,采用了softmax交叉熵损失函数,而不是hinge pairwise损失函数。
- 相关性保证:提出了两种不需要额外训练过程,就能够保证检索更多相关性商品的方法。1.即:在softmax基础上引入温度参数,对用户隐式反馈(点击数据)进行相关性噪声的平滑。2.混合正样本和随机负样本来产生”相关性提升“的困难负样本。进一步,作者采用了相关性控制模块来进一步保证EBR系统相关性。
- 实验和分析:在真实的工业级数据上,阐明了MGDSPR的有效性。进一步分析了MGDSPR对搜索系统每个阶段的影响,介绍了应用向量检索在商品搜索过程中的宝贵经验和教训。
2. Solution
问题形式化:$\mathcal{U}={u_1,…,u_u,…,u_n}$表示$N$个用户集合;$\mathcal{Q}={q_1,…,q_u,…,q_N}$表示相应的queries,$\mathcal{I}={i_1,…,i_i,…,i_M}$表示$M$个物品的集合。同时,作者将用户$u$的历史行为根据离当前的时间间隔划分为3个子集合,
- 实时行为序列(当前时间戳前的若干行为):$\mathcal{R}^u={i_1^u,…,i_t^u,…,i_T^u}$;
- 短期行为序列(不包括在$\mathcal{R}^u$中的10天内的行为):$\mathcal{S}^u={i_1^u,…,i_t^u,…,i_T^u}$;
- 长期行为序列(不包括在$\mathcal{R}^u$和$\mathcal{S}^u$中的1个月内的行为序列):$\mathcal{L}^u={i_1^u,…,i_t^u,…,i_T^u}$。
任务:给定用户$u$的历史行为序列$(\mathcal{R}^u, \mathcal{S}^u, \mathcal{L}^u)$,在时间$t$发起了一次搜索请求$q_u$,我们期望返回物品的集合$i \in \mathcal{I}$来满足该用户的搜索需求。具体而言,目标是基于用户$(\text{query}, \text{behaviors})$和物品items之间的得分$z$,从$\mathcal{I}$中预测出Top-$K$候选物品。即:
$$
z = \mathcal{F}(\phi(q_u, \mathcal{R}^u, \mathcal{S}^u, \mathcal{L}^u), \psi(i))
$$
其中,$\mathcal{F}(\cdot)$是打分函数,$\phi(\cdot)$是query/behaviors的编码器,$\psi(i)$是item编码器。作者也是采用了双塔的召回模型,$\mathcal{F}$用内积函数来表示。下文主要介绍用户towers和物品towers。
先介绍下整体的网络框架结构:
典型的双塔结构,在user tower部分做的比较重,item tower部分做的比较轻量。user tower输出的用户表征向量和item tower输出的物品表征向量做点积得到预测值,再使用sampled softmax损失函数在全局item pool中进行优化。其中,
user tower包含三个重量的部分,
- query语义表征;
- 用户实时、短期、长期历史行为序列个性化表征;
- 以及二者如何融合起来的组件。
分别对应图中user tower的左侧、中间和上半部分。
item tower包含三个轻量的部分,
- item ID;
- item的辅助信息;
- 以及二者如何融合起来的组件。
优化:
- sampled softmax损失函数。
- 优化策略:温度参数对训练集进行噪声平滑、在embedding空间生成困难负样本。
下面将分别围绕上述三个部分user tower, item tower和优化方法展开,最后介绍系统架构。
2.1 User Tower
2.1.1 多粒度语义单元(Multi-Granular Semantic Unit)
淘宝搜索的query通常是中文。经过query分词后,每个分词结果的长度通常小于3。因此,作者提出了一种【多粒度语义单元】来多粒度地挖掘query语义。具体而言,输入:
- 当前query的分词结果$q_u={w_1^u, …, w_n^u}$,比如:{红色,连衣裙}
- 每个词$w$又由字构成,$w^u={c_1^u,…,c_m^u}$,比如:{红,色}
- 该用户的历史搜索行为$q_{his}={q_1^u,…,q_k^u} \in \mathbb{R}^{k \times d}$,比如:{绿色,半身裙,黄色,长裙}
其中,词:$w_n \in \mathbb{R}^{1\times d}$,字:$c_m \in \mathbb{R}^{1 \times d}$,$q_k \in \mathbb{R}^{1 \times d}$,即:每个词、字、query整体的embedding维度数都设置为$d$。可以获得如下6种粒度的表征,$Q_{mgs} \in \mathbb{R}^{6 \times d}$,
- $q_u$ unigram单字粒度的表征做mean-pooling,${q_1}_{gram} \in \mathbb{R}^{1 \times d}$
- $q_u$ 2-gram的表征做mean-pooling,${q_2}_{gram} \in \mathbb{R}^{1 \times d}$
- $q_u$分词粒度的词的表征做mean-pooling,$q_{seg} \in \mathbb{R}^{1 \times d}$
- $q_u$分词粒度的序列,用Transformer作为序列Encoder后,再对最后1层隐层向量做mean pooling,${q_{\text{seg_seq}}} \in \mathbb{R}^{1 \times d}$
- 历史搜索词$q_{his}$和当前搜索词的表征$q_{seg}$做attention后,加权融合,$q_{\text{his_seq}} \in \mathbb{R}^{1 \times d}$
- 混合表征:上述5种表征向量相加得到,$q_{mix} \in \mathbb{R}^{1 \times d}$
最终,$Q_{mgs} \in \mathbb{R}^{6 \times d}$由上述6种拼接而成。具体计算公式如下:
其中,$Trm$即为Transformer,$q_{his}$的计算同$q_{seg}$。
可以看到,作者从两个方面来充分地对query进行语义表征,由此可以回答开篇的第一个问题,query如何充分地进行语义表征?
- query字面上的组织方式多样:字粒度,2-gram粒度,词粒度。
- query的表征方法多样:pooling,transformer,concat,addition等。
当然,只讲结果,没有讲为什么这么做。有点过于经验性/实验性驱动,而不是问题/动机驱动。
2.1.2 用户行为注意力机制(User Behaviors Attention)
用户行为包括:用户的实时、短期或长期的点击或者购买行为。用户$u$在$t$时刻点击item $i$,用$i_t^u$来表示。对于物品$i_t^u$的表征向量,首先使用ID和side information(叶子类目、一级类目、品牌和所属店铺)做嵌入,然后对得到的嵌入向量做pooling或者拼接在一起。
不同于广告和推荐场景中常用的target-item注意力机制(如DIN,DIEN等),此处使用query注意力机制来捕捉用户历史行为和当前query的语义相关性。目的是发现哪些历史行为和本次query相关,来丰富用户在当前query下的语义/意图表征。比如:历史购买行为,篮球鞋、裙子,此次搜索query是红裙,显然篮球鞋历史行为(可能送人的)对此次query毫无帮助,直接引入还会带来噪声,而裙子历史行为对此次query是有帮助的。
具体而言,在搜索场景中,用户的历史行为和当前query可能都无关,参考[6]的做法,作者加了一个全零的向量到用户的行为数据中,来消除潜在噪声和解决用户历史行为和当前query可能完全无关的情况。
这个优化点非常巧妙,如果不加全零向量,模型无论如何都会强制关注到至少一个行为,这在历史行为和当前query都无关的时候,显然是噪声。加了零向量后,在完全无关的时候,模型attend到这个零向量即可,不会引入额外的噪声。个人认为这个优化点在搜索场景中至关重要,也是和推荐场景差别较大的地方,鲜有论文会提到这点。
接下来介绍如何融合用户的实时行为、短期行为和长期行为。
实时点击行为序列:$\mathcal{R}^u={i_1^u, …, i_t^u, …, i_T^u}$,其中,$i_t^u$是ID和辅助特征嵌入拼接在一起实现。
- 首先使用LSTM来捕捉用户行为的演变,得到LSTM的隐层输出,$\mathcal{R}_{lstm}^u={h_1^u, …, h_t^u, …, h_T^u}$。
- 接着,参考SDM[7]的做法,使用多头自注意力机制来从$\mathcal{R}_{lstm}^u$中汇聚多个潜在的兴趣点,得到$\mathcal{R}^u_{\text{self_att}}={h_1^u, …, h_t^u,…,h_T^u}$。
- 接着,加一个全零的向量进去,得到:$\mathcal{R}_{\text{zero_att}}^u={0, h_1^u, …, h_t^u,…,h_T^u} \in \mathbb{R}^{(T+1) \times d}$。
- 最后,使用注意力机制,来获取和$Q_{mgs}$最相关的实时历史行为表征,$H_{real}=softmax(Q_{mgs} \cdot R_{\text{zero_att}}^T) \cdot \mathcal{R}_{\text{zero_att}}^T$。 $H_{real} \in \mathbb{R}^{6 \times d}$,注意这个向量的维度数,实际上等价于拿组成$Q_{mgs}$的6个向量分别和实时行为做attention后,再拼接起来。
短期点击行为序列:$\mathcal{S}^u={i_1^u, …, i_t^u, …, i_T^u}$,其中,$i_t^u$是ID和辅助特征嵌入拼接在一起实现。
和实时行为序列表征相比,少了第一步LSTM,其它都一样。
- 使用多头自注意力机制从$\mathcal{S}^u$中汇聚得到$\mathcal{S}^u_{\text{self_att}}$
- 同样,加一个全零的向量进去,得到:$\mathcal{S}_{\text{zero_att}}^u={0, h_1^u, …, h_t^u,…,h_T^u} \in \mathbb{R}^{(T+1) \times d}$。
- 最后,使用注意力机制,来获取和$Q_{mgs}$最相关的短期历史行为表征,$H_{short}=softmax(Q_{mgs} \cdot S_{\text{zero_att}}^T) \cdot \mathcal{S}_{\text{zero_att}}^T$ $\in \mathbb{R}^{6 \times d}$
长期点击/购买/收藏行为序列:$\mathcal{L}^u={i_1^u, …, i_t^u, …, i_T^u}$,考虑到线上用户行为变化很快,$i_t^u$是ID和辅助特征嵌入做mean pooling得到,和实时行为、短期行为中用的”拼接“方式不同。
除此之外,使用4种属性序列来描述1个月内用户的长期行为序列,包括:
- item ID序列($\mathcal{L}_{item}^u$)
- shop ID序列($\mathcal{L}_{shop}^u$)
- 叶子节点类目ID($\mathcal{L}_{leaf}^u$)
- 品牌ID($\mathcal{L}_{brand}^u$)
每种属性行为使用用户的点击、购买、收藏行为来表示。例如:物品序列$\mathcal{L}_{item}^u$包含了用户的物品点击序列$\mathcal{L}_{\text{click_item}}^u$,购买序列$\mathcal{L}_{\text{buy_item}}^u$和收藏序列$\mathcal{L}_{\text{collect_item}}^u$,全部拼接在一起,形成长期行为序列,$L_{item}^u={0, h_{click}, h_{buy}, h_{collect}}$,可以看到同样添加了零向量。则,使用query对长期行为应用注意力机制捕捉这种长期行为表征。
$$
H_{\text{a_item}}=softmax(Q_{mgs} \cdot L_{\text{item}}^T) \cdot L_{\text{item}}^T \in \mathbb{R}^{6 \times d}
$$
则:长期行为表征向量为:$H_{long}=H_{\text{a_item}} + H_{\text{a_shop}} + H_{\text{a_leaf}} + H_{\text{a_brand}} \in \mathbb{R}^{6 \times d}$。
由此可以回答开篇的第二个问题,query注意力机制而非target-item注意力机制以及引入零向量,能够保证捕捉和query相关的历史行为信息。
2.1.3 语义表征和个性化行为表征融合 (Fusion of Semantics and Personalization)
输入:
- 多粒度query语义表征:$Q_{mgs}$
- 个性化序列表征:$(H_{real}, H_{short}, H_{long})$
使用自注意力机制来捕捉二者的关系。特别的,作者添加了$[CLS]$ token在首位,形成输入:$I={[CLS], Q_{mgs}, H_{real}, H_{short}, H_{long}}$。
输出:
然后将self自注意力机制的输出作为user tower的表征,$H_{qu} \in \mathbb{R}^{1 \times d}$
$$
H_{qu} = \text{Self_Att}^{first}([[CLS], Q_{mgs}, H_{real}, H_{short}, H_{long})
$$
$first$我理解是指用单头自注意力机制即可。$[CLS]$模仿BERT中的结构,可学习的向量,浓缩信息。
2.2 Item Tower
根据作者的实验经验,使用Item ID和Item的Title来获得Item的表征$H_{item}$。具体而言,给定item $i$的ID,其嵌入为:$e_i \in \mathbb{R}^{1 \times d}$。给定title的分词结果$T_i={w_1^i, w_2^i, …, w_N^i}$,得到物品的表征,$H_{item} \in \mathbb{R}^{1 \times d }$,即:
$$
H_{item} = e + tanh(W_t \cdot \frac{\sum_{i=1}^N w_i}{N})
$$
其中,$W_t$是可学习的变换矩阵。作者表示,通过实验发现,使用LSTM、Transformer等来捕捉title上下文感知的表征,其效果还不如上述简单的mean-pooling。给出的理由是:大部分的title由关键词堆叠而成,且缺乏语法结构。个人理解,可能想说字面上的语义信息足够凸显,上下文信号较弱,不需要复杂的模型来捕捉语义。
2.3 Loss Function
为了保证训练时的样本空间和在线推理时的样本空间一致,大部分工作会使用随机负采样的方法。但是这些工作都采用了pairwise hinge loss作为损失函数,只能进行局部的比较,和在线推理时需要的全局比较不一致。为此,作者使用了softmax交叉熵损失函数,具体而言,给定正样本$i^{+}$,
$$
\hat{y}(i^{+}|q_u) = \frac{\exp(\mathcal{F}(q_u, i^{+}))}{\sum_{i^{\prime} \in I}\exp(\mathcal{F}(q_u, i^{\prime}))}
$$
$$
L = -\sum_{i \in I} y_i \log(\hat{y}_i)
$$
$I$是全部的item集合。实际上就是softmax交叉熵损失,然后因为$I$的数量很大,使用sampled softmax来优化即可。此处没有太大的创新点。在sampled softmax中,仍然需要负样本,参考[2]京东的做法,作者使用同一个batch内的其它样本作为当前正样本$i^{+}$的负样本对,这个效果和使用随机任意的样本作为负样本差不多,而前者还能省不少计算资源。
接着,为了提高EBR系统的相关性,增加更多相关性的样本进入后续的排序阶段。作者提出了两种优化策略,
对训练集中的样本进行噪声平滑:作者引入了温度参数$\tau$。此处也没有什么太大的创新点。$\tau$无穷小时,相当于拟合one-hot分布,无限拉大正样本和负样本之间的差距;$\tau$无穷大时,相当于拟合均匀分布,无视正样本还是负样本。作者认为,训练集中用户的点击和购买行为包含有不少噪声数据,不仅受到query-product相关性的影响,也受到图片、价格、用户偏好等诸多因素的影响,即用户点击/购买的item不一定和query相关,如果一味地拟合点击/购买行为,可能会带来很多相关性问题,因此引入温度参数来平滑,温度参数参数越大,则平滑的作用越明显,让模型不去过分关注点击样本,也花点”心思”去关注没有点击但是可能是相关的样本。形如:
$$
\hat{y}(i^{+}|q_u) = \frac{\exp(\mathcal{F}(q_u, i^{+})/\tau)}{\sum_{i^{\prime} \in I}\exp(\mathcal{F}(q_u, i^{\prime})/\tau)}
$$生成相关性增强的困难负样本:先前有些工作[8]会引入额外的人工标注数据来提升EBR模型的相关性。和这些工作不同,作者提出了一种在embedding空间自动生成困难负样本的方法。特别的,给定一个训练样本$(q_u, i^{+}, i^{-})$,其中$i^{-}$是随机负采样的item表征,$q_u$是用户表征,$i^+$是正样本item的表征,为了得到困难负样本:
使用$q_u$去Item Pool中找到和其点积最大的top-N个负样本集合:$I_{hard}$,然后通过插值的方式,来混合正样本$i^{+} \in \mathbb{R}^{1 \times d}$和困难负样本$I_{hard} \in \mathbb{R}^{N \times d}$,即:
$$
I_{mix} = \alpha i^{+} + (1-\alpha)I_{hard}
$$
$I_{mix} \in \mathbb{R}^{N \times d}$,形成N个困难负样本。其中,$\alpha \in \mathbb{R}^{N \times 1}$是从均匀分布$U(a,b)$中采样到的,$0 \leq a < b \leq 1$,显然,$\alpha$越接近1,生成的样本越接近正样本,即:生成的样本越困难。把生成的样本也纳入损失函数的计算:
$$
\hat{y}(i^{+}|q_u) = \frac{\exp(\mathcal{F}(q_u, i^{+})/\tau)}{\sum_{i^{\prime} \in I \cup I_{mix}}\exp(\mathcal{F}(q_u, i^{\prime})/\tau)}
$$
可以通过调参$a$和$b$来控制负样本的”困难程度”。好奇的是,实现上如何高效地对$q_u$和Item Pool中所有负样本计算top-N点积?难道也是拿当前batch中的样本来计算的?另外,万一top-N里头存在相关的会有影响吗?
由此可以回答开篇的第三个问题,如何保证EBR系统的相关性。
2.4 系统架构
最后,我们来欣赏下淘宝搜索引擎的系统架构。
搜索的整个过程如下:
- 用户发起一次请求
- 触发多通道检索系统,形成未排序的商品集合
- 基于倒排索引的文本匹配
- 基于Item的协同过滤
- 基于向量的检索
- 多阶段排序
- 粗排
- 相关性排序
- 精排
- 重排
- 混排:商品、广告、多模态内容
本文重点在基于向量的检索:
- 离线:使用分布式Tensorflow对过去1周内的搜索日志数据进行训练,天级更新模型参数。
- 部署:item tower离线算好所有product的向量,并存在ANN索引系统里,product量级巨大,分片存,共6列,借助层次聚类算法做量化降低存储开销(实际上猜测就是Faiss);query/user network做实时serving。实际检索的时候,能够实现类似布尔检索系统的高效检索。笔者当时针对Facebook[3]的文章,花了很长的时间做调研和理解,详细地写过一篇ANN检索的底层工程实现细节,感兴趣的可以参考下,语义向量召回之ANN检索:https://mp.weixin.qq.com/s/GDkY09tKmhEo1WZWmFK9Ug
- 性能:实时检索9600个item。98%的item在10ms内能检索完,即:98线为10ms。很强的性能了。
还有个很重要的相关性模块还没有介绍。开篇提到过,EBR检索系统在个性化和模糊匹配方面做的很好,但是相关性上缺点也很大。归根结底在于,EBR不是完全匹配的方式,在搜索里,其实就是指不是Term Query。也即,结构化检索,比如品牌,颜色,类型等结构化字段,这些结构化字段能够很大程度上保证相关性。但是EBR却做不到这点。比如:用户检索阿迪达斯运动鞋,那么完全匹配查询能够去检索品牌:阿迪达斯,类目:运动鞋;但是EBR可能在embedding空间检索到耐克运动鞋,这显然是不相关的,会影响用户的体验。因此,作者在ANN结果的后面,又加了层相关性控制模块,对query进行了查询理解,识别出品牌、类目等意图,然后对item的title中也挖掘出品牌、类目等结构化字段,然后用这些查询理解的意图对item做term query,过滤掉未命中这些结构化字段取值的item。
作者还提到,Facebook[3]的文章是通过EBR系统来弥补基于完全匹配的检索系统在个性化、模糊匹配上的不足;而淘宝搜索出发点相反,是通过基于完全匹配的检索系统来提升EBR系统的相关性。总之,二者相辅相成。
3. Evaluation
离线实验以及实现细节也是工业界文章的核心亮点,值得大家好好品。
3.1 Settings
离线指标:
- $\text{Recall@K}$。用户点击或者购买的item作为ground truth,去预测Top-K Item。作者提到,在检索阶段,用AUC做离线指标时,和线上的GMV指标无法保持一致,而召回指标则可以。
- $P_{good}$。相关性指标,Top-K结果中有多少个结果和query强相关,即:相关性item的数量比例。是否相关的label不是人工标注的,而是采用了一个很强的相关性模型(在单独的人工标注数据集上的AUC能够达到0.915)来打标。
- $Num_{prank}, Num_{rank}$。衡量EBR检索系统对各个阶段的影响指标。即:预测的Top-K Item中,有多少个会进入后续的各个排序环节,进入越多,说明相关性保证的越好。
在线指标:
- $GMV$ = #pay amount.
- 线上相关性标注指标,$P_{good}$展示给用户的item中,和query相关的占比,$P_{good}$和$P_{\text{h_good}}$,前者用模型打标,后者外包标注。
实现细节:
- 网络结构:
- 实时行为序列最大长度50,长短期行为序列最大长度都是100,超过的mask掉,使用带mask机制的attention实现即可。
- user tower, item tower, LSTM等结构的隐层维度数为128。
- 实时行为中,LSTM结构2层,dropout=0.2,LSTM之间加残差连接,自注意力机制头的数量是8。
- 训练:
- batch大小为256。
- 困难负样本中,均匀分布a和b的值为0.4,0.6;生成的困难负样本数量为684。
- 温度参数$\tau=2$。
- 随机初始化所有参数。
- AdaGrad,初始学习率0.1。
- 梯度裁剪,当梯度的L2范数超过3时做裁剪。
- 配置:
- 分布式机器学习平台,20个参数服务器,100个GPU作为worker,配置是Tesla P100。
- 训练时间:3500万步,耗时54小时。
- 网络结构:
数据集,
淘宝真实的搜索行为数据集,2020年12月连续8天的点击和购买日志,过滤掉了作弊用户行为。
- 训练集:前7天作为训练集,约47亿条(item维度的)。
- 测试集;从第8天中,随机从搜索系统数据中抽100W条数据;从推荐系统数据中抽50W条购买数据。
全量的候选item的数量级是1亿,和线上真实推断时的候选集保持一致。
3.2 离线对比实验
Baseline:$\alpha$-DNN,MLP结构,很强的baseline。静态特征,统计特征,序列特征做pooling作为输入。怎么训练的没说清楚,难道是二分类任务?
MGDSPR:本文的方法,如上文所述。作者提到一点,加入统计特征到MGDSPR中,recall指标并没有提升。挺神奇的。
提升还是挺大的,尤其是相关性样本的占比,以及进入粗排的相关性item的数量。
3.3 消融实验
几大组件,唯一没说清楚的是,不使用mgs, trm等时,用的什么做baseline?拼接?
- mgs:2.1.1中提出的多粒度语义单元,对recall和相关性指标都有用。
- trm:2.1.3中的语义表征和个性化行为表征做融合,对recall和相关性指标都有用。
- $\tau$: 2.3中的温度参数。对召回指标负向,但是对相关性指标提升非常显著。
- $I_{mix}$,对召回指标负向,对相关性指标帮助大。
看了消融实验,对召回指标帮助大的是mgs和trm;对相关性指标帮助大的是温度参数和困难负样本。
3.4 Online A/B Test
有挺大的线上指标提升。
其它的分析实验比较常规,总结下来就是:
- softmax收敛速度比pairwise loss快,recall指标也高不少。
- 温度参数和困难负样本对相关性的提升很大。
Summarization
总体而言,这篇文章干货很多,细读会发现很多细节。有几大亮点,
- 多粒度语义单元,对query语义的多粒度挖掘和表征,值得在搜索场景中尝试。
- 用户行为序列在搜索场景中的建模方法,query attentive而不是target-item attentive以及零向量的引入是最大亮点,长短期融合等也值得实践。
- EBR系统对相关性的保证,softmax损失函数+温度参数;在embedding空间生产困难负样本。
个人认为还有几个疑问没解释清楚:
- 多粒度语义单元结构如此复杂,里头每个组件都是有效的吗?过于empirically/experimentally实验驱动,而不是问题驱动。
困难负样本生成的时候,如何高效地对所有Item求点积最大的top-N?这里头Top-N是否有可能存在和当前query相关的item,是否会产生负面影响?
相关性模块:EBR和完全匹配的Term Query结果取交集保证相关性,那和直接用完全匹配做召回相比,增益在哪里?我理解这种只可能在召回候选集合item数量远大于排序候选集合item数量的时候才有效,EBR提前考虑了个性化因素,能够防止满足个性化需求的item无法进入排序阶段。
- 实验的一些细节,baseline的训练方式没说清楚。消融实验中,不使用那4个组件时,模型用什么方式替代没说清楚。
总之,同以往的EBR文章一样,值得细品和实践!
这是KDD 21工业界文章的第一篇分享,更多KDD 21 工业界文章参见:https://zhuanlan.zhihu.com/p/388115800
References
[1] Priyanka Nigam, Yiwei Song, Vijai Mohan, Vihan Lakshman, Weitian Ding, Ankit Shingavi, Choon Hui Teo, Hao Gu, and Bing Yin. 2019. Semantic product search. In Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. 2876–2885.
[2] Han Zhang, Songlin Wang, Kang Zhang, Zhiling Tang, Yunjiang Jiang, Yun Xiao, Weipeng Yan, and Wen-Yun Yang. 2020. Towards Personalized and Semantic Retrieval: An End-to-End Solution for E-commerce Search via Embedding Learning. arXiv preprint arXiv:2006.02282 (2020).
[3] Jui-Ting Huang, Ashish Sharma, Shuying Sun, Li Xia, David Zhang, Philip Pronin, Janani Padmanabhan, Giuseppe Ottaviano, and Linjun Yang. 2020. Embedding-based retrieval in facebook search. In Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. 2553–2561.
[4] Miao Fan, Jiacheng Guo, Shuai Zhu, Shuo Miao, Mingming Sun, and Ping Li. 2019. MOBIUS: towards the next generation of query-ad matching in baidu’s sponsored search. In Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. 2509–2517.
[5] Tao Wu, Ellie Ka-In Chio, Heng-Tze Cheng, Yu Du, Steffen Rendle, Dima Kuzmin, Ritesh Agarwal, Li Zhang, John Anderson, Sarvjeet Singh, et al. 2020. Zero-Shot Heterogeneous Transfer Learning from Recommender Systems to Cold-Start Search Retrieval. In Proceedings of the 29th ACM International Conference on Information & Knowledge Management. 2821–2828.
[6] Qingyao Ai, Daniel N Hill, SVN Vishwanathan, and W Bruce Croft. 2019. A zero attention model for personalized product search. In Proceedings of the 28th ACM International Conference on Information & Knowledge Management. 379–388.
[7] Fuyu Lv, Taiwei Jin, Changlong Yu, Fei Sun, Quan Lin, Keping Yang, and Wilfred Ng. 2019. SDM: Sequential deep matching model for online large-scale recommender system. In Proceedings of the 28th ACM International Conference on Information & Knowledge Management. 2635–2643.
[8] Thanh V Nguyen, Nikhil Rao, and Karthik Subbian. 2020. Learning Robust Models for e-Commerce Product Search. arXiv preprint arXiv:2005.03624 (2020).
[9] Embedding-based Product Retrieval in Taobao Search: https://arxiv.org/abs/2106.09297
也欢迎关注我的公众号”蘑菇先生学习记“,更快更及时地获取推荐系统前沿进展!