• 高斯混合和EM算法


     首先介绍高斯混合模型:

    高斯混合模型是指具有以下形式的概率分布模型:

    一般其他分布的混合模型用相应的概率密度代替(1)式中的高斯分布密度即可。


    给定训练集,我们希望构建该数据联合分布

    这里,其中是概率,并且,用表示可能的取值。

    因此,我们构建的模型就是假设是由生成,而是从中随机选择出来的,那么就服从个依赖于的高斯分布中的一个。这就是一个高斯混合模型

    是潜在随机变量,即它是隐藏的或者观察不到的,这将使得估计问题变得棘手。

    上面公式太多,作一个总结,总体意思是关于的条件分布符合高斯分布(即正态分布),这个是潜在变量,它的值未知,但是服从多项式分布,于是关于的条件分布就是高斯混合模型,而是一个潜在变量值不确定,进而导致高斯混合模型的概率估计也变得棘手

    可以看出,我们构建的高斯混合模型参数有,为了估计出这些参数,写出参数的似然函数:

    变量意味着每一个来自于个高斯分布中的哪一个,如果我们知道变量的值,最大化似然函数问题将变得容易,似然函数将会变成如下形式:

    那么参数的最大似然估计可以计算出:

    可以看出,当已知的时候,最大似然函数的的估计与前面讨论过的高斯判别分析模型(关于高斯判别模型参见生成式学习算法)几乎一样,除了这里替代了高斯判别模型中类别标签的角色。

    但是在这个问题中是未知的,该怎么办?就得运用EM算法。在应用到我们的这个问题中,EM算法分两步,在E步骤中,算法试图猜测出的值,在M步骤中,根据E步骤猜测的值更新参数。需要注意的是在M步骤中假定E步骤中的猜测是正确的,算法流程如下:

    E-step: 对于每一个,令:

      

    M-step: 更新参数:

      

    重复上面两步直至收敛(参数不再发生明显变化)

    在E-step中计算关于的后验概率时,参数用的都是当前的值,第一步时可以随机初始化,用贝叶斯公式,我们可以得到:

    分子上的是由均值为,方差为的高斯分布在处的概率密度给出,由参数

    给出. 在E-step中对的猜测只是猜测它是某个值得概率,被称作“软猜测”,与之对应的“硬猜测”就是一个最好的猜测,即不是0就是1.

    和上面我们在推导已知时,参数估计的公式相比,EM算法中的参数更新仅仅是用代替了.

    EM算法和k-means算法(参考我的博文K-means聚类算法原理和C++实现)很类似,除了k-means是一个“硬” 类别分配(为每个样本选择一个确定的类别),而这里是以概率的“软”分配(就是取某个值的概率)。同k-means一样,EM算法也容易陷入局部最优,所以多次运行,每次都将参数初始化为不同的值将会是一个很好的解决办法。

     

    EM算法就是不断重复猜测的值,但是到底是如何进行的呢,如何保证收敛性呢,在下一篇博文将继续讨论,从而使得EM算法能够更加容易应用到各种存在潜在变量的参数估计问题中,而且将讨论如何保证算法收敛。

  • 相关阅读:
    20135203齐岳 信息安全系统设计基础第二周学习总结
    信息安全系统设计基础第一周学习总结
    实验五 cmp传输与加解密
    实验三 敏捷开发与XP实践(改)
    Anaconda添加镜像和删除镜像
    srvany.exe和instsrv.exe打包exe为windows服务趟的坑
    python笔记
    haproxy实现socket5代理
    nginx实现的一些实用性配置,持续更新中
    利用Func封装“方法重试”功能
  • 原文地址:https://www.cnblogs.com/90zeng/p/Mixtures_of_Gaussians_and_the_EM_algorithm.html
Copyright © 2020-2023  润新知