人工智能数学参考---6、中心极限定理
一、总结
一句话总结:
样本的平均值约等于总体的平均值。不管总体是什么分布,任意一个总体的样本平均值都会围绕在总体的整体平均值周围,并且呈正态分布。
如果要估计14亿人的每天读书数,可以整几次100万来估计
1、A、B为不相关的时候的P(A|B)、P(B|A)、P(AB)的关系?
P(A|B)=P(A)
P(B|A)=P(B)
P(AB)=P(A)*P(B)
2、二维随机变量,比如调查人的身体状况,不仅查身高x,还要查体重y?
F(x,y)表示随机点(X,Y)在以(xy)为顶点且位于该点左下方无穷矩形内的概率。
规律有F(x2,y2)-F(x2,y1)-F(x1,y2)+F(x1,y1)
3、边缘分布?
边缘分布函数:二维随机变量(X,Y)作为整体,有分布函数F(x,y),其中,x和y都是随机变量,它们的分布函数记为:F x下标(x),F y下标(y)称为边缘分布函数。
在边缘分布函数F(x,y)中令y一→+oo,就能得到F x下标(x)
4、大数定理?
在试验不变的条件下,重复试验多次,随机事件的频率近似于它的概率。
小的样本试验不足以以偏概全因为有一些局限。
5、马尔科夫不等式?
P(X>=a) <= E(X)/a,X>=0,a>0
6、用到 最大似然估计(根据概率算参数) 的例子?
有一天,有个病人到医院看病。他告诉医生说自己头痛,然后医生根据自己的经验判断出他是感冒了,然后给他开了些药回去吃。
头痛的原因有很多种啊,比如感冒,中风,那么医生凭什么这么说?医生说这是我从医多年的经验,来判断各种病的概率,由各种病的概率反推出参数,就是 最大似然估计
7、奥卡姆剃刀在机器学习中的应用?
奥卡姆剃刀:如无必要,勿增实体。
机器学习中也就是不要过拟合,也就是不要太用高阶函数过每一个点。
比如n-1阶函数肯定可以过所有n个点,但是P(1)或者P(2)或者P(3)阶函数的概率就是远大于P(n-1)
8、贝叶斯和朴素贝叶斯的区别?
朴素贝叶斯相对于贝叶斯,只是假设特征之间是独立的,互不影响
二、内容在总结中
博客对应课程的视频位置: