zoukankan      html  css  js  c++  java
  • 信息论-熵

    定义

      熵是从整个集合的统计特性所考虑的

      表示信源输出前信源的平均不确定性

      表示信源输出后每个符号携带的平均信息

      I(p)只能表示信源中每个符号的信息量,不能作为信源总体的信息量

    公式:

      H(x) = E(log 1/p(ai))

           = -∑p(ai) log p(ai)

    自信息

      发出的消息所携带的信息量, 用I(x)计算

      在消息a中每个符号携带的平均信息量 自信息/符号个数

      自信息不是熵  

    联合熵与条件熵

      对于信源来说∑p(ai) = 1

      对于联合熵来说∑∑p(aiaj) = 1

      p(aiaj) = p(ai|aj) * p(aj)

       若信源的输出与上一个输出的字符有关系 上一个字符为aj的话,这一个为ai个概率为 p(ai|aj)

      联合熵为H(xixj)  = -∑∑p(aiaj) log p(aiaj) 用于表示信源输出长度为2的平均不确定性

      条件熵为H(xi|xj)  = -∑∑p(ai|aj) p(aj)log p(ai|aj)=-∑∑p(aiaj) log p(ai|aj) 随机序列xixj的联合符号集上的条件自信息量的数学期望

      用公式可以推出

           

    熵的意义

      H(X):表示信源中每个符号的平均信息量(信源熵)

      H(Y):表示信宿中每个符号的平均信息量(信宿熵)

      H(X|Y):表示在输出端接收到Y的全部符号后,发送端X尚存的平均不确定性。这个对X尚存的不确定性是由于干扰引起的。信道疑义度(损失熵,含糊度)

      H(Y|X):表示在已知X的全部符号后,对于输出Y尚存的平均不确定性。信道散布度(噪声熵)

      H(XY):表示整个信息传输系统的平均不确定性(联合熵)

     一些性质

      1.对称性:   H(P) 的取值与分量 p1, p2 , ··· , pq的顺序无关

      2.确定性:信源是确知信源时,其熵为0

      3.非负性:H(p) >= 0

      4.扩展性:  

      5.可加性:当X,Y为独立信源时 H(X,Y) = H(X)+ H(Y) 

      6.强可加性:对于任意信源都有H(X,Y)=H(X)+ H(Y|X)

      7.递增性:若原信源 X 中有一个符号分割成了m个元素(符号),这m个元素的概率之和等于原元素的概率,而其他符号的概率不变,则新信源的熵增加等于由分割而产生的不确定性量

            

      8.上凸性:熵函数H(P)是概率矢量P=(p1,p2, …,pq)的严格∩型凸函数(或称上凸函数)

      9.极值性:

      

      10. H(X,Y) >= H(X)  

      最大离散熵定理:在离散信源情况下,信源各符号等概率分布时,熵值达到最大

  • 相关阅读:
    【随机梯度下降】理解与使用
    【线性回归】波士顿房价预测
    【knn临近算法】预测年收入
    【knn近邻算法】算法实现的简单原理
    【线性回归算法】小案例之确诊病例数据预测(只用于理解预测算法理解)
    【前端】H5,底边按钮吸边,但是覆盖了列表循环的内容
    【Django组件】WebSocket的简单实现
    vue基础知识点
    ES6---Proxy的理解的使用
    Python 整数拆分
  • 原文地址:https://www.cnblogs.com/shensobaolibin/p/10075720.html
Copyright © 2011-2022 走看看