作者 | 赵军、周洲、管子玉、赵伟、宁伟、仇光、何晓飞
1. 引言
在构图中用户和商品的交互行为通常是最直接也是最有效的边连接方式,是一种显式的用户偏好刻画,并取得一定的推荐效果提升,该方案存在的最大问题是显式交互数据存在较大的数据稀疏性。而在实际场景中是存在大量的异构信息可以引入提升网络表征的丰富性,比如用户的搜索词、访问店铺、偏好品牌、偏好属性等等,这些特征可以提升更丰富的语义表示和相关性刻画,intentGC是本文提出的一种基于GCN的统一的网络嵌入学习框架,融合显式偏好关系以及丰富的用户和商品异构关系信息,提升推荐系统的效果,算法中最为核心的技术是图卷积,我们在经典图卷积的基础之上做了一些创新优化,以更好地解决我们业务中存在的强异构性、大规模性等核心挑战。
2. 问题定义
3. 模型设计
本文设计的模型融合多种信息的大规模图卷积学习算法,采用二部异构图建模,loss设计采用triplet目标,可以有效的控制和侧重学习用户的显示偏好和表达,整个学习过程是一个半监督的模式,有效利用了电商体系内大量的无标注信息提升学习目标精度。方案核心包括三部分,一是网络翻译,对原始网络进行一次无损翻译;二是快速卷积网络,对异构信息进行高效卷积;三是对偶卷积,基于翻译的HIN学习用户和商品表征。
网络翻译
网络引入多种异构节点带来更丰富信息同时也带来了语义不兼容的挑战,区分节点类型计算对具有多种异构节点和边的大规模网络来说复杂度和计算量是一个巨大的挑战,本文借鉴相关研究基于二阶相似性将原始的网络翻译成用户-用户或者商品-商品关系,相似度计算是基于二者相同附加信息个数,核心思想是如果u1和u2有相同的辅助信息连接的话,u1和u2之间也相关,这样就可以实现将网络中异构节点的语义信息编码成用户-用户关系或者商品-商品关系实现原始网络信息翻译。
快速卷积网络IntentNet
原始的GCN在大规模的图中计算时具有巨大的计算复杂度,因为会通过高阶传输方式进行内容传播,复杂度是指数级的。本文提出的快速卷积网络intentNet通过以下两点优化可以有效的解决这个问题:第一,在卷积算子中,实际上并不是所有神经元都是同等重要的,在激活过程中,实际上只有最相关的神经元具有最大的效果,因此我们将图卷积设计为稀疏的网络激活,也可以看成是信道共享的向量学习,通过向量化的卷积实现邻居信息传播;第二,我们还发现,原始的高指数卷积复杂度主要来源于高阶节点,但是这种训练方式是可以解耦的,可以拆分成graph view和node view两种训练模块。基于这两点观察,我们重新设计了图卷积,通过全连接网络实现特征组合,实验表明相比GraphSage具有更好的效率和效果。
a) 向量化卷积函数
b) IntentNet
卷积训练方式设计拆分成graph view和node view两种训练模块,然后通过两者联合获取图卷积的功能,前者基于上述的向量化卷积函数,多卷积层堆叠能够有效的学习邻居节点传播关系,实现图卷积的任务,后者接全连接层学习不同维度向量空间的特征关系。
对偶卷积
为了user和item的表征和label信息刻画精确,不同于传统GCN,我们设计了对偶性的GCN结构,在同一个框架中具体学习。具体的方案是user进行独立的卷积,item和负采样进行共享的卷积,然后在卷积层最后,通过dense网络将三者投影到同一语义空间,最后,采取triplet loss的方法进行学习,这样结构的好处是,可以比经典GCN拥有更准确的异构表征能力,同时实践证明,这样的方式也可以让两个对偶卷积收敛,具有好的半监督效果。
IntentGC算法框架
intentGC算法框架主要包含三部分:1)网络翻译;2)训练;3)推断。在训练后我们可以获得用户和商品的向量表征,然后通过k-近邻的思路进行检索推荐。
- 实验结论
实验我们主要是验证IntentGC和现有算法的效果对比,IntentNet在处理十亿规模图学习任务上和GraphSage效率对比,以及验证增加异构信息的模型学习能力对比,我们离线基于淘宝和亚马逊的数据进行评估,分别对比DeepWalk、GraphSage、DSPR、Metapath2vec++、BiNE 等算法,在淘宝和亚马逊数据集上离线评估结果以及在淘宝环境线上实验均表明我们算法的有效性。
5. 总结和展望
本文提出一种新的融合多种信息的大规模图卷积学习方案,实验表明利用电商体系内大量的无标注信息在商品推荐中有重要价值,我们设计的快速图卷积学习框架能够支持十亿节点规模网络结构应用。在商品推荐中证明有效性,未来我们希望可以将该框架应用到更多的任务中,另外,考虑到在线实时用户特征的重要性,后续也可以考虑动态图卷积模型提升模型对实时特征的学习。