zoukankan      html  css  js  c++  java
  • 机器学习(3):信息论

     

    1.信息熵

    给定概率密度函数(p(x)), 定义该函数的信息熵
    (H(p)=H[mathbf{x}]=-int{p(mathbf{x})lnp(mathbf{x})dmathbf{x}})
    信息熵描述了分布的混乱程度。均匀分布是使得信息熵最大的概率分布。单点的冲击响应函数对应的信息熵最小 

    2.相对熵

    给定两个概率密度函数(p(x))和(q(x)) ,描述二者之间的差异(距离),定义相对熵

    (KL(p||q)=-int{p(mathbf{x}) extbf{ln}q(mathbf{x})dmathbf{x}}-(-int{q(mathbf{x}) extbf{ln}p(mathbf{x})dmathbf{x}}) \
    KL(p||q)=-int{p(x)lnleft { frac{q(mathbf{x})}{p(mathbf{x})} ight }})

    对任意概率分布(KL(p||q)geqslant 0), 等号当且仅当 (p=q)。


    3.互信息

    对于两个随机变量(x,y) ,定义二者之间的互信息

    (I[x,y]=KL(p(x,y)||p(x)p(y)=-iint{p(x,y)lnleft ( frac{p(x)p(y)}{p(x,y)} ight )dxdy})

    若(x,y) 相互独立,则互信息为0,二者相互无关

    (I[x,y]=H[x]-H[x|y]=H[y]-H[y|x])


    4.交叉熵及深度学习的应用

    给定两个概率密度函数(p(x))和(q(x)),定义(p(x)) 关于(q(x)) 的交叉熵

    (H(p,q)=E_{p}(-lnq)=-int{p(x) ln q(x) dx}=H(p)+KL(p||q))

    交叉熵作为logistic、 softmax回归的代价函数,常应用神经网络的输出层。

  • 相关阅读:
    《自己动手写操作系统》:开发环境配置心得
    sip.conf配置详情
    MySQL字符串中数字排序的问题
    Asterisk iax错误提示
    Python 快速入门
    C# winfrom 导出word
    SetWindowsHookEx函数参数详解
    Ubuntu Linux系统下轻松架设nginx+php服务器应用
    TShockwaveFlash的使用
    检讨
  • 原文地址:https://www.cnblogs.com/cv-pr/p/7103180.html
Copyright © 2011-2022 走看看