机器学习深版08:EM算法

机器学习深版08:EM算法

文章目录

1. 铺垫

机器学习深版08:EM算法
机器学习深版08:EM算法
Jensen不等式:对于凸函数,有以下结论:上图是连续的下图是离散的:
机器学习深版08:EM算法

2. 问题引入与欧拉解释

  1. 问题提出:K-means算法可以将数据分成簇,但是却给不出它的后验概率。
    机器学习深版08:EM算法
    机器学习深版08:EM算法
    机器学习深版08:EM算法
    机器学习深版08:EM算法
    机器学习深版08:EM算法
    机器学习深版08:EM算法
    机器学习深版08:EM算法
    机器学习深版08:EM算法
    高斯混合模型GMM,混合高斯分布不是高斯分布。
    机器学习深版08:EM算法
    机器学习深版08:EM算法
    机器学习深版08:EM算法
    机器学习深版08:EM算法
    结论是正确的,解释过程略有问题。
    先验假设对最后的结果会有影响,有时影响是决定性的。
    GMM实际上是一个多极值的函数,如下图理解:
    机器学习深版08:EM算法
    这个不能是梯度下降而是坐标上升。
    因为是求均值,所以噪声对其影响还是挺大的。
    各组分方差一样其实是K-means

3. 更加严谨的推导

机器学习深版08:EM算法
机器学习深版08:EM算法
机器学习深版08:EM算法
机器学习深版08:EM算法
这个>=就是上面的那个小的下界的求得。
机器学习深版08:EM算法
EM算法的收敛性,不细说:
机器学习深版08:EM算法

上一篇:K-means算法的改进:K-means++


下一篇:零基础学习Kmeans聚类算法的原理与实现过程