Wide & Deep - 学习笔记

1、介绍

Wide & Deep模型的出发点是兼顾模型的记忆能力和泛化能力,下面解释一下这两者的含义。

  • 记忆 (Memorization):指的是模型记住商品共现性的能力。举个例子,一个父亲逛淘宝通常会同时买尿布和啤酒,这就体现了商品的共现性。购买的次数多了,当模型看到尿布,自然会给用户推荐啤酒,这就是模型的记忆能力。
  • 泛化( Generalization)能力:只是的模型挖掘用户潜在喜好的能力。比方说,你经常刷足球类的短视频,软件就会根据足球去联想,你是不是有可能喜欢C罗呢?然后软件就会尝试给你推荐C罗的视频,这就体现了模型的泛化能力。

在Wide & Deep论文中,由线性模型加上人工设计的关联规则,来负责记忆(Memorization),称为Wide部分;由深层神经网络来负责泛化( Generalization),称为Deep部分。
Wide & Deep - 学习笔记

2、Wide

广义线性模型的表达式是:
y = w T x + b y=w^Tx+b y=wTx+b
其中, x x x表示特征向量。然后 W i d e Wide Wide部分定义了一个关联规则,用它来表示特征之间的共现性:

Wide & Deep - 学习笔记
关联规则的具体表示是:只有当 i i i特征和 k k k特征同时为1时, c k i c_{ki} cki​才为1,否则为0。文中选择的特征是“用户下载的APP”和“用户感兴趣的APP”。

3、Deep

D e e p Deep Deep部分,首先会把稀疏的原始向量经过 E m b e d d i n g Embedding Embedding层,得到稠密向量,然后再经过全连接网络,进行特征交叉,提取高阶特征:
Wide & Deep - 学习笔记

4、Join Training

最后,我们把 W i d e Wide Wide部分和 D e e p Deep Deep部分的输出加在一起,经过一个 S i g m o i d Sigmoid Sigmoid函数,把输出压缩到01之间,最后用 L o g i s t i c Logistic Logistic L o s s Loss Loss进行训练。
Wide & Deep - 学习笔记

上一篇:el-table 鼠标移入显示移出隐藏滚动条


下一篇:uniapp 扩展组件抽屉的使用