协同过滤 collaborative filtering
人以类聚,物以群分
相似度
1. Jaccard 相似度
定义为两个集合的交并比:
Jaccard 距离,定义为 1 - J(A, B),衡量两个集合的区分度:
为什么 Jaccard 不适合协同过滤?—— 只考虑用户有没有看过,没考虑评分大小
2. 余弦相似度
根据两个向量夹角的余弦值来衡量相似度:
为什么余弦相似度不适合协同过滤?—— 不同用户各自评分总和不一样,导致评分占总比不一样,可能计算出和事实相反的结果。
3. Pearson 相似度
解决余弦相似度中的相似度差异问题,又称中心余弦算法。先中心化,再算余弦相似度,这样正值表示正相关,负值表示负相关。
基于用户的协同过滤
通过用户对物品的喜爱程度进行度量和打分。根据不同用户对相同商品或内容的态度进行商品推荐。
举例说明,每个行向量表示某个用户对所有电影的评分
先把数据中心化
然后计算用户 A 和其他用户的 Pearson 相关系数:
可以发现用户 A 和用户 B 喜好接近,因此可以将 B 喜欢但 A 没看过的密室推荐给 A,同时也可以将 A 喜欢但 B 没看过的火焰杯推荐给 B。
用户法存在的问题:
1. 数据稀疏性。物品太多,不同用户之间买的物品重叠性较低,导致无法找到一个偏好相似的用户
2. 算法扩展性。最近邻算法的计算量随着用户和物品数量的增加而增加,不适合数据量大的情况使用。
基于物品的协同过滤
通过计算不同用户对于不同物品的评分,获得物品间的关系。基于物品间的关系对用户进行相似物品的推荐。
举例说明,每一个行向量表示某个物品被各个用户的评分,先中心化
如何预测用户 E 对 哈利波特的喜好程度?计算哈利波特和其他电影之间的 Pearson 相关系数
选择相关性较大的其他电影,拿出用户 E 对这些电影的评分,利用 Pearson 相关系数做 weighted sum:
从原理上看,基于用户或基于物品都是可以的,但实践中以物品为基础效果更好,且需要很少的数据就可以进行预测,用户法需要大量数据。
基于模型的协同过滤
主流方法主要有以下几种。先占坑,慢慢补吧
1. 关联算法
Apriori,FP Tree 和 PrefixSpan
刘建平老师的博客:
2. 聚类
K-means,谱聚类, BIRCH 和 DBSCAN
之后自己总结一下 k-means 和谱聚类
3. 矩阵分解
Matrix Factorization
要处理的数据样式
要先做 encoding,把 categorical features 转换为 numerical features。最简单就是 one-hot encoding,把 id 映射成 binary vector。
某个用户没看过的电影,评分就是空出来的。
用线性网络来预测评分的话,需要两个矩阵(两层的权重参数)。每一个 user 在隐含层的输出就相当于直接从 V 中查表。相当于做了一次映射、一次线性组合。
训练的目标函数呢?—— 均方误差呗
比较直接的想法就是,干脆把 R 矩阵分解成两个矩阵相乘的形式就好了。根据已有的评分来学习 W 和 V 的参数。
优化方法:
1. 目标函数如下所示,交替更新 W 和 V 的参数(如果把 R 转置,其实 W 和 V 从形式上就是对称的)。
这种优化方法叫做交替最小二乘,能得到局部最优解。
2.直接用 SGD,更有效率。
梯度公式:
优化过程:
SVD 协同过滤
奇异值矩阵的特征值按照从大到小排列且迅速减小,可以把大矩阵用三个小矩阵来近似描述,实现降维和去噪,应用于协同过滤中可以减少计算量。
用 K 维 SVD 分解做协同过滤,实际上就是找一组 latent variables,U 和 V 分别描述了物品与隐变量、用户与隐变量之间的关系。 然后就可以都在 latent space 中表示。
举例说明,4 个用户对 6 部电影的评分情况
做二维 SVD 分解:
在 latent space 中表示用户和电影,发现电影之间、用户之间、电影和用户之间,都可以衡量中心余弦相似度。
如果出现一个新用户,如何给他推荐他没有看过的电影?
把新用户投影到 latent space
找到和新用户相似度高的用户,把相似用户评分高而新用户没看过的电影,按相似用户的评分高低顺序先后推荐给新用户即可。
Factorization Machine
https://www.cnblogs.com/pinard/p/6370127.html
4. 分类算法
LR(可解释性强,便于做特征工程),朴素贝叶斯
GBDT
5. 回归算法
Ridge, 决策树,支持向量回归
6. 神经网络
YouTube Recommendation System 引出的一系列基于 NN 的推荐模型
7. 图模型
SimRank,马尔可夫模型
8. 隐语义模型
LSA,LDA