zoukankan      html  css  js  c++  java
  • 算法面试准备(一)之----交叉熵与logistic回归推导

    牛客上总结很好,但是有一些小错误与重复,自己再总结一下好了,顺便复习。

    交叉熵公式

    两个概率分布pq交叉熵是指,当基于一个“非自然”(相对于“真实”分布p而言)的概率分布q进行编码时,在事件集合中唯一标识一个事件所需要的平均比特数(bit)。

    {displaystyle H(p,q)=-sum _{x}p(x),log q(x).!}

    $ P $ 和 $ Q $ 的KL散度 ,又叫他们之间的相对熵,注意相对熵和交叉熵是不一样的。

    D_{{{mathrm  {KL}}}}(P|Q)=sum _{i}P(i)ln {frac  {P(i)}{Q(i)}}.!

    可知,

    [D_{{{mathrm {KL}}}}(P|Q)=sum _{i}P(i)ln { P(i)}+P(i)ln {frac {1}{Q(i)}}.! ]

    因此 交叉熵和KL散度(又称相对熵)有如下 关系,

    {displaystyle H(p,q)=operatorname {E} {p}[-log q]=H(p)+D{mathrm {KL} }(p|q),!}

    互信息的定义

    一般地,两个离散随机变量 XY 的互信息可以定义为:

    I(X;Y)=sum _{{yin Y}}sum _{{xin X}}p(x,y)log {left({frac  {p(x,y)}{p(x),p(y)}}
ight)},,!

    其中 p(x,y) 是 XY联合概率分布函数,而p(x)p(y) 分别是 XY边缘概率分布函数。

    互信息与KL散度的关系

    由KL散度定义可知,互信息与KL散度有如下关系,

    I(X;Y)=D_{{{mathrm  {KL}}}}(p(x,y)|p(x)p(y)).

    p(x|y) = p(x, y) / p(y) , 事实上还有一个关系,

    互信息与各种熵的关系大汇总。。。

    其中  H(X) H(Y) 是边缘H(X|Y) 和 H(Y|X) 是条件熵,而 H(X,Y) 是 XY联合熵

    下面是其中一个的证明,其它应该也不难证明,如果概念搞清楚的话,

    logistic回归推导

    参考我之前cs229学习笔记。

    logistic回归函数与概率模型以及更新公式

    人生充满了巧合。巧就巧在,在我的第一家面试,在上海豪生大酒店三楼,甜橙金融的算法面试。面试官问我的两个问题就是互信息与KL散度的关系以及逻辑斯蒂克回归的一些问题。当时一紧张就回答不太好。公式都快忘了,没有任何准备。

    现在正在等面试结果。是2019年10月17号上午10点面的,等得我好慌。

    不慌,打不了春招,人生说不定也有惊喜,即使是惊吓,也练练我的承受力。各项事务汇集在一点,这几天又要抽送外审的论文。

    img

  • 相关阅读:
    PHP:面向对象学习笔记,重点模拟Mixin(掺入)
    Mybatis Plus 更新
    Mybatis Plus 自定义SQL和分页插件
    Mybatis Plus 查询方法
    Mybatis Plus 快速入门
    Ribbon 负载均衡服务调用
    三个注册中心异同点
    Consul 服务注册与发现
    Spring Boot 集成 Swagger
    Eureka 服务注册与发现
  • 原文地址:https://www.cnblogs.com/qizhien/p/11703974.html
Copyright © 2011-2022 走看看