引入1:随机变量函数的分布
给定X的概率密度函数为fX(x), 若Y = aX, a是某正实数,求Y得概率密度函数fY(y).
解:令X的累积概率为FX(x), Y的累积概率为FY(y).
则 FY(y) = P(Y <= y) = P(aX <= y) = P(X <= y/a) = FX(y/a),
则 fY(y) = d(FX(y/a)) / dy = 1/a * fX(x/a)
引入2:如何定义信息量
- 某事件发生的概率小,则该事件的信息量大;
- 如果两个事件X和Y独立,即p(xy) = p(x)p(y),假定X和Y的信息量分别为h(X)和h(Y),则二者同时发生的信息量应该为h(XY) = h(X) + h(Y).
- 定义事件X发生的概率为:p(x),则X的信息量为:h(p(x)) = -lnp(x)
- 那么,事件X的信息量的期望如何计算呢?
一句话总结最大熵模型:
1. 我们的假设应当满足全部已知条件;
2. 对未知的情况不做任何主观假设。
(一)熵
对随机事件的信息量求期望,得熵的定义:
H(X) = -Σp(x)lnp(x)
- 经典熵的定义,底数是2,单位为bit;
- 为了方便计算可以使用底数e,则单位为nat(奈特)。
可以得到,当一个变量X服从均匀分布时,它所包含的信息熵是最大的。
计算如下:
p(xi) = 1/N, 则熵为:H(p) = -Σpi * lnpi = -Σ1/N * ln(1/N) = lnN
所以,我们可以得到如下结论:
- 0 <= H(X) <= ln|X|
- 熵是随机变量不确定性的度量,不确定性越大,熵值越大;
- 若随机变量退化为定值,则熵最小,为0;
- 锁随机分布为均匀分布,熵最大。
- 这是无条件的最大熵分布,那如果是有条件的,该怎么做呢?
- 使用最大熵模型
- 若只给定期望和方差的前提下,最大熵的分布形式是什么?
引理:根据函数的形式判断概率分布
例如:
所以,我们可以得到,正态分布的对数是关于随机变量x的二次函数:
根据计算过程的可逆性,若某对数分布能够写成随机变量二次形式,则该分布必然是正态分布。
再回到我们的问题上来,给定某随机变量的期望与方差,它的最大熵的分布形式是什么?
已知Var(X) = E(X2) - E(X)2 ,则 E(X2) = Var(X) - E(X)2 = σ2 - μ2,
所以我们将上述目标函数改写为:
然后,建立Lagrange函数并求驻点:
由于P(x)的对数是关于随机变量x的二次形式,我们可以根据函数的形式判断概率分布,所以该分布p(x)必然是正态分布。
如果没有约束条件,最大熵对应的的分布为均匀分布;
如果给出了一定期望和方差,则最大熵对应的分布为正态分布。
(二)联合熵和条件熵
- 两个随机变量X,Y的恋歌分布,可以形成联合熵(Joint Entropy),用H(X, Y)表示。
- 即:H(X, Y) = -Σp(x, y) lnp(x, y)
- H(X, Y) - H(Y)
- 表示(X, Y)发生所包含的熵,减去Y单独发生包含的熵:在Y发生的前提下,X发生新带来的熵。
- 条件熵:H(X|Y)
(三)相对熵/交叉熵/K-L散度
相对熵,又称互熵,交叉熵,鉴别信息,Kullback-Leible散度等。
相对熵具有如下性质:
- 相对熵可以度量两个随机变量的距离;
- 一般不具有对称性,即D(p||q) ≠ D(q||p),当且仅当p = q, 则相对熵为0,二者相等;
- D(p||q) >= 0, D(q||p) >= 0.
那么,我们应该使用D(p||q) 还是 D(q||p)呢?
假定已知随机变量P,求一个随机变量Q,使得Q尽量接近于P,这样我们可以使用P和Q的K-L来度量他们的距离。
- 假定使用KL(Q || P),为了让距离最小,则要求P为0的地方,Q尽量为0。这样会得到比较瘦高的分布曲线;
- 假定使用KL(P || Q),为了让距离最小,则要求P不为0 的地方,Q也尽量不为0。这样会得到比较矮胖的分布曲线。
(四)互信息
两个随机变量X,Y的互信息,定义为X,Y的联合分布和独立分布乘积的相对熵。
即: I(X, Y) = D(P(X, Y) || P(X)P(Y))
即:
可以通过简单的计算得到:
H(X|Y) = H(X) - I(X, Y),
互信息为0,则随机变量X和Y是互相独立的。
(五)各种熵之间的关系
- H(X|Y) = H(X, Y) - H(Y); H(Y|X) = H(X, Y) - H(X) —— 条件熵的定义
- H(X|Y) = H(X) - I(X, Y); H(Y|X) = H(Y) - I(X, Y)
- I(X, Y) = H(X) - H(X|Y) = H(X) + H(Y) - H(X, Y) —— 也可以作为互信息的定义
- H(X|Y) <= H(X):
- H(X)表示X的不确定度;H(X|Y)表示给定Y的情况下,X的不确定度。
- 如果X与Y完全独立,则二者相等(给不给Y对X能给出多少信息无关);
- 而如果X与Y不是独立的,则给定Y之后会降低X的熵,即X的不确定性会降低。
用Venn图帮助记忆:
(六)最大熵模型
最大熵模型的原则:
- 承认已知事物(知识);
- 对未知事物不做任何假设,没有任何偏见。
对一个随机事件的概率分布进行预测时,我们的预测应当满足全部已知条件,而对未知的情况不要做任何主观假设。在这种情况下,概率分布最均匀,预测的风险最小。
因为这时概率分布的信息熵最大,所以人们把这种模型叫做“最大熵模型”(Maximum Entropy)。
最大熵模型一般是在给定条件下求条件熵,所以我们可以使用Lagrange乘子法来解决。
1)最大熵的一般模型
2)Lagrange函数为:
其中,含λi的第一个约束项表示我们的模型要能够很好的解释初始数据集,fi(x, y)表示我们选取的第i个特征;含ν0的第二个约束项表示概率加和为1.
p(x, y) = p(y | x) * p(x),而p(x)是已知的,所以我们用p(x)_bar来表示已知量。
3)对p(y|x)求偏导
其中,为了计算方便,我们令ν0 = λ0 * p(x). 然后得到其最优解形式,如红框内所示。
4)归一化
上面通过求偏导得到的p*是没有经过归一化的,加上归一化因子zλ(x)。
5)与Logistic/SoftMax回归的对比
- Logistic/SoftMax回归的后验概率形式:
- 最大熵模型的后验概率形式:
Logistic回归是统计学习中的经典分类方法,可以用于二类分类也可以用于多类分类。
最大熵模型由最大熵原理推导出来,最大熵原理是概率模型学习或估计的一个准则,最大熵原理认为在所有可能的概率模型的集合中,熵最大的模型是最好的模型,最大熵模型也可以用于二类分类和多类分类。
Logistic回归模型与最大熵模型都属于对数线性模型。
逻辑回归跟最大熵模型没有本质区别。逻辑回归是最大熵对应类别为二类时的特殊情况
指数簇分布的最大熵等价于其指数形式的最大似然。
二项式分布的最大熵解等价于二项式指数形式(sigmoid)的最大似然;
多项式分布的最大熵等价于多项式分布指数形式(softmax)的最大似然。
求最大熵的问题最后可以化成MLA的问题做,两者的出发点不同,但是最终的形式是一样的。
中心极限定理:一组有确定方差的独立随机变量的和趋近于高斯分布。即给定随机变量X和Y,则X+Y比X或Y更接近于高斯分布。
【总结】
- 根据最大似然估计的正确性可以断定:最大熵的解(无偏的对待不确定性)是最符合样本数据分布的解,即最大熵模型的合理性;
- 信息熵可以作为概率分布集散程度的度量,使用熵的近似可以推导出gini系数,在统计问题、决策树等问题中有重要应用;
- 熵:不确定性的度量;
- 似然:与知识的吻合程度;
- 最大熵模型:对不确定度的无偏分配;
- 最大似然估计:对知识的无偏理解。