zoukankan      html  css  js  c++  java
  • 数学基础03-信息论基础(信息熵、条件熵、互信息/信息增益、联合熵、相对熵/KL散度、交叉熵)

    机器学习中,信息论中的各种熵在多次出现(最大熵模型、CRF、广义线性模型中以及分类问题中损失中的交叉熵,t-SNE、GAN中使用的KL散度等),这里做一个简单总结。

    1、信息量

    定义

    单个事件的不确定性的大小。

    数学形式

    $logfrac{1}{p(x)}=-logp(x)$

    特点

    不确定性越大,信息量越大。

    2、信息熵

    定义

    信息量的期望

    数学形式

    $H(x)=-sum p(x)logp(x)$

    物理含义

    一种解释是,信息熵表示最短的平均编码长度。

    性质

    不确定性越大,信息熵越大。

    3、联合熵

    定义

    两个事件同时发生的不确定性。

    数学形式

    $H(X,Y)=-sum p(x,y)logp(x,y)$

    4、条件熵

    定义

    已知条件下的,事件的不确定性的大小。

    数学形式

    $H(Y|X) = sum p(x) H(Y|X=x) = -sum p(x) sum p(y|x)logp(y|x)$

    性质

    熵、条件熵、联合熵满足:$H(X,Y)=H(X)+H(Y|X)=H(Y)+H(X|Y)$

    5、互信息/信息增益

    定义

    在没有任何条件时,不确定性最高;在给定一个条件后,不确定性可能减少。互信息就是不确定性减少的度量。

    数学形式

    $I(X,Y)=H(X)-H(X|Y)$

    性质

    $I(X,Y)=H(X)-H(X|Y)=H(Y)-H(Y|X)$

    tips:

    根据以上信息,我们可以得出信息熵、联合熵、条件熵、互信息/信息增益的关系,如下韦恩图:

    6、交叉熵

    定义

    这个定义我也不知道怎么下了!!!

    数学形式

    $H_c(p, q) = - sum p(x)logq(x)$

    物理含义

    可以理解为,使用一种编码,来记录另一个数据分布,需要的平均编码长度。

     

    7、相对熵/KL散度

    数学形式

    $KL(p, q) = sum p(x)logfrac{p(x)}{q(x)} = H(p, q)-H(p)$

    物理含义

    使用另一种编码,来编码自身分布,需要额外增加的编码长度。

    如果发现文中有问题,敬请联系作者批评指正,真诚欢迎您的指教,谢谢!

    微信: legelsr0808

    邮箱: legelsr0808@163.com

  • 相关阅读:
    120.三角形最短路径(leetcode)
    Python Pycharm中灵活运用debugger
    POJ 1284
    POJ 2407
    POJ 1811
    HDU 1164
    HDU 4228
    HDU 2521
    HDU 4133
    ZOJ 2562 反素数
  • 原文地址:https://www.cnblogs.com/ai1024/p/6158617.html
Copyright © 2011-2022 走看看