一、熵、联合熵(相当于并集)、条件熵、互信息
1.熵是什么?
(0)信息量:信息的度量p(xi)。信息量和概率成反比,熵是信息量的期望。 X是一个随机变量,可能取值有很多个。熵是信息量的期望。熵反应的是不确定性,如果不确定性越高,熵越高,概率越低。熵是可以大于1的,但是概率是不可以大于1的
(1)物理学中的熵
(2)信息论中的熵
(3)熵相关概念Venn图
(4)联合熵:并集。
2.
3.
1.熵是什么?
(0)信息量:信息的度量p(xi)。信息量和概率成反比,熵是信息量的期望。 X是一个随机变量,可能取值有很多个。熵是信息量的期望。熵反应的是不确定性,如果不确定性越高,熵越高,概率越低。熵是可以大于1的,但是概率是不可以大于1的
(1)物理学中的熵
(2)信息论中的熵
(3)熵相关概念Venn图
(4)联合熵:并集。
2.
3.