牛客上总结很好,但是有一些小错误与重复,自己再总结一下好了,顺便复习。
交叉熵公式
两个概率分布和
的交叉熵是指,当基于一个“非自然”(相对于“真实”分布
而言)的概率分布
进行编码时,在事件集合中唯一标识一个事件所需要的平均比特数(bit)。
$ P $ 和 $ Q $ 的KL散度 ,又叫他们之间的相对熵,注意相对熵和交叉熵是不一样的。
可知,
[D_{{{mathrm {KL}}}}(P|Q)=sum _{i}P(i)ln { P(i)}+P(i)ln {frac {1}{Q(i)}}.!
]
因此 交叉熵和KL散度(又称相对熵)有如下 关系,
互信息的定义
一般地,两个离散随机变量 X 和 Y 的互信息可以定义为:
其中 p(x,y) 是 X 和 Y 的联合概率分布函数,而 和
分别是 X 和 Y 的边缘概率分布函数。
互信息与KL散度的关系
由KL散度定义可知,互信息与KL散度有如下关系,
记 p(x|y) = p(x, y) / p(y) , 事实上还有一个关系,
互信息与各种熵的关系大汇总。。。
其中 和
是边缘熵,H(X|Y) 和 H(Y|X) 是条件熵,而 H(X,Y) 是 X 和 Y 的联合熵。
下面是其中一个的证明,其它应该也不难证明,如果概念搞清楚的话,
logistic回归推导
参考我之前cs229学习笔记。
人生充满了巧合。巧就巧在,在我的第一家面试,在上海豪生大酒店三楼,甜橙金融的算法面试。面试官问我的两个问题就是互信息与KL散度的关系以及逻辑斯蒂克回归的一些问题。当时一紧张就回答不太好。公式都快忘了,没有任何准备。
现在正在等面试结果。是2019年10月17号上午10点面的,等得我好慌。
不慌,打不了春招,人生说不定也有惊喜,即使是惊吓,也练练我的承受力。各项事务汇集在一点,这几天又要抽送外审的论文。