• 最大熵模型(Maximum Etropy)—— 熵,条件熵,联合熵,相对熵,互信息及其关系,最大熵模型。。


    引入1:随机变量函数的分布

         给定X的概率密度函数为fX(x), 若Y = aX, a是某正实数,求Y得概率密度函数fY(y).

    解:令X的累积概率为FX(x), Y的累积概率为FY(y).

    则 FY(y) = P(Y <= y) = P(aX <= y) = P(X <= y/a) = FX(y/a),

    则 fY(y) = d(FX(y/a)) / dy = 1/a * fX(x/a)

    引入2:如何定义信息量

    • 某事件发生的概率小,则该事件的信息量大;
    • 如果两个事件X和Y独立,即p(xy) = p(x)p(y),假定X和Y的信息量分别为h(X)和h(Y),则二者同时发生的信息量应该为h(XY) = h(X) + h(Y).
    • 定义事件X发生的概率为:p(x),则X的信息量为:h(p(x)) = -lnp(x)
      • 那么,事件X的信息量的期望如何计算呢?

    一句话总结最大熵模型:

    1. 我们的假设应当满足全部已知条件;

    2. 对未知的情况不做任何主观假设。 

    (一)熵

    对随机事件的信息量求期望,得熵的定义:

    H(X) = -Σp(x)lnp(x)

    • 经典熵的定义,底数是2,单位为bit;
    • 为了方便计算可以使用底数e,则单位为nat(奈特)。

    可以得到,当一个变量X服从均匀分布时,它所包含的信息熵是最大的。

    计算如下:

    p(xi) = 1/N, 则熵为:H(p) = -Σpi * lnpi = -Σ1/N * ln(1/N) = lnN

    所以,我们可以得到如下结论:

    • 0 <= H(X) <= ln|X|
    • 熵是随机变量不确定性的度量,不确定性越大,熵值越大;
      • 若随机变量退化为定值,则熵最小,为0;
      • 锁随机分布为均匀分布,熵最大。
    • 这是无条件的最大熵分布,那如果是有条件的,该怎么做呢?
      • 使用最大熵模型
      • 若只给定期望和方差的前提下,最大熵的分布形式是什么?

    引理:根据函数的形式判断概率分布

    例如:

    所以,我们可以得到,正态分布的对数是关于随机变量x的二次函数:

    根据计算过程的可逆性,若某对数分布能够写成随机变量二次形式,则该分布必然是正态分布。

    再回到我们的问题上来,给定某随机变量的期望与方差,它的最大熵的分布形式是什么?

    已知Var(X) = E(X2) - E(X)2 ,则 E(X2) = Var(X) - E(X)2 = σ2 - μ2,

    所以我们将上述目标函数改写为:

    然后,建立Lagrange函数并求驻点:

    由于P(x)的对数是关于随机变量x的二次形式,我们可以根据函数的形式判断概率分布,所以该分布p(x)必然是正态分布。

    如果没有约束条件,最大熵对应的的分布为均匀分布;

    如果给出了一定期望和方差,则最大熵对应的分布为正态分布。

    (二)联合熵和条件熵

    • 两个随机变量X,Y的恋歌分布,可以形成联合熵(Joint Entropy),用H(X, Y)表示。
      • 即:H(X, Y) = -Σp(x, y) lnp(x, y)
    • H(X, Y) - H(Y)
      • 表示(X, Y)发生所包含的熵,减去Y单独发生包含的熵:在Y发生的前提下,X发生新带来的熵。
    • 条件熵:H(X|Y)

    (三)相对熵/交叉熵/K-L散度

    相对熵,又称互熵,交叉熵,鉴别信息,Kullback-Leible散度等。

    相对熵具有如下性质:

    • 相对熵可以度量两个随机变量的距离;
    • 一般不具有对称性,即D(p||q) ≠ D(q||p),当且仅当p = q, 则相对熵为0,二者相等;
    • D(p||q) >= 0,  D(q||p) >= 0.

    那么,我们应该使用D(p||q) 还是 D(q||p)呢?

    假定已知随机变量P,求一个随机变量Q,使得Q尽量接近于P,这样我们可以使用P和Q的K-L来度量他们的距离。

    • 假定使用KL(Q || P),为了让距离最小,则要求P为0的地方,Q尽量为0。这样会得到比较瘦高的分布曲线;
    • 假定使用KL(P || Q),为了让距离最小,则要求P不为0 的地方,Q也尽量不为0。这样会得到比较矮胖的分布曲线。

    (四)互信息

    两个随机变量X,Y的互信息,定义为X,Y的联合分布和独立分布乘积的相对熵。

    即: I(X, Y) = D(P(X, Y) || P(X)P(Y))

    即: 

    可以通过简单的计算得到:

    H(X|Y) = H(X) - I(X, Y), 

    互信息为0,则随机变量X和Y是互相独立的。

    (五)各种熵之间的关系

    • H(X|Y) = H(X, Y) - H(Y); H(Y|X) = H(X, Y) - H(X) —— 条件熵的定义
    • H(X|Y) = H(X) - I(X, Y); H(Y|X) = H(Y) - I(X, Y)
    • I(X, Y) = H(X) - H(X|Y) = H(X) + H(Y) - H(X, Y) —— 也可以作为互信息的定义
    • H(X|Y) <= H(X):
      • H(X)表示X的不确定度;H(X|Y)表示给定Y的情况下,X的不确定度。
      • 如果X与Y完全独立,则二者相等(给不给Y对X能给出多少信息无关);
      • 而如果X与Y不是独立的,则给定Y之后会降低X的熵,即X的不确定性会降低。

    用Venn图帮助记忆:

                  

    (六)最大熵模型

    最大熵模型的原则:

    • 承认已知事物(知识);
    • 对未知事物不做任何假设,没有任何偏见。

    对一个随机事件的概率分布进行预测时,我们的预测应当满足全部已知条件,而对未知的情况不要做任何主观假设。在这种情况下,概率分布最均匀,预测的风险最小。

    因为这时概率分布的信息熵最大,所以人们把这种模型叫做“最大熵模型”(Maximum Entropy)。

    最大熵模型一般是在给定条件下求条件熵,所以我们可以使用Lagrange乘子法来解决。

    1)最大熵的一般模型

         

    2)Lagrange函数为:

         

     其中,含λi的第一个约束项表示我们的模型要能够很好的解释初始数据集,fi(x, y)表示我们选取的第i个特征;含ν0的第二个约束项表示概率加和为1.

    p(x, y) = p(y | x) * p(x),而p(x)是已知的,所以我们用p(x)_bar来表示已知量。

     3)对p(y|x)求偏导

        

     其中,为了计算方便,我们令ν= λ0 * p(x). 然后得到其最优解形式,如红框内所示。

    4)归一化

    上面通过求偏导得到的p*是没有经过归一化的,加上归一化因子zλ(x)

    5)与Logistic/SoftMax回归的对比

    • Logistic/SoftMax回归的后验概率形式:
    • 最大熵模型的后验概率形式:

    Logistic回归是统计学习中的经典分类方法,可以用于二类分类也可以用于多类分类。

    最大熵模型由最大熵原理推导出来,最大熵原理是概率模型学习或估计的一个准则,最大熵原理认为在所有可能的概率模型的集合中,熵最大的模型是最好的模型,最大熵模型也可以用于二类分类和多类分类。

    Logistic回归模型与最大熵模型都属于对数线性模型。

    逻辑回归跟最大熵模型没有本质区别。逻辑回归是最大熵对应类别为二类时的特殊情况

    指数簇分布的最大熵等价于其指数形式的最大似然

    二项式分布的最大熵解等价于二项式指数形式(sigmoid)的最大似然; 
    多项式分布的最大熵等价于多项式分布指数形式(softmax)的最大似然。

    求最大熵的问题最后可以化成MLA的问题做,两者的出发点不同,但是最终的形式是一样的。

    中心极限定理:一组有确定方差的独立随机变量的和趋近于高斯分布。即给定随机变量X和Y,则X+Y比X或Y更接近于高斯分布。

    【总结】

    • 根据最大似然估计的正确性可以断定:最大熵的解(无偏的对待不确定性)是最符合样本数据分布的解,即最大熵模型的合理性;
    • 信息熵可以作为概率分布集散程度的度量,使用熵的近似可以推导出gini系数,在统计问题、决策树等问题中有重要应用;
    • 熵:不确定性的度量;
    • 似然:与知识的吻合程度;
    • 最大熵模型:对不确定度的无偏分配;
    • 最大似然估计:对知识的无偏理解。
  • 相关阅读:
    课程作业08:课后作业之字串加密、动手动脑之String.equals()方法、整理String类的Length()、charAt()、 getChars()、replace()、 toUpperCase()、 toLowerCase()、trim()、toCharArray()使用说明、阅读笔记发表到博客园。
    课程作业07:请编写一个程序,使用上述算法加密或解密用户输入的英文字符串。
    课程作业06:验证课件上的代码,并将所有的动手动脑或要求发表博客作业部分整理成一篇博客发表。
    课程作业05:使用类的静态字段和构造函数,我们可以跟踪某个类所创建对象的个数。请写一个类,在任何时候都可以向它查询“你已经创建了多少个对象?”
    Django 学习之用户认证组件auth与User对象
    Django 学习之中间件Middleware
    Django学习 之后端视图与ajax
    Django 学习之cookie与session
    Django 学习 之ORM聚合查询分组查询与F查询与Q查询
    Django 学习 之ORM多表操作
  • 原文地址:https://www.cnblogs.com/little-YTMM/p/5582271.html
Copyright © 2020-2023  润新知