详解概率与期望的概念
本篇随笔简单讲解一下数学中的概率和期望的相关内容,并致力于对概率期望在信息学奥林匹克竞赛中的应用。建议阅读本篇博客并希望从中弄懂概率和期望相关内容的读者现行具备一定的(不低于初中)的统计学相关知识。了解一定的数学知识(尽量不低于初三--高一)。
概念集锦
1、随机现象
在一定的条件下,并不总是出现相同的结果的现象称为随机现象。
就是在同一条件下出现很多种不同的结果。
比如在一个固定的时间段,乘坐公交车的人数可能会不同。这就是一个随机现象。
2、随机变量
表示随机现象的各种结果的变量叫做随机变量。
比如在一个固定的时间段,乘坐公交车的乘客人数。(哈哈哈还是上面的例子)
比较数学的一个说法:设一个随机现象的所有可能结果做一个基本空间(Omega),随机变量(X)是定义在(Omega)上的取值为实数的函数。这是个映射的关系,也就是对于这个基本空间(Omega)的所有可能结果,都有一个值在实轴上与之对应。
怎么去理解这个东西呢?还是上面这个例子,如果定义(X)为八点到九点中乘坐公交车的乘客人数。那么(X)就是个随机变量。它会有很多种可能的结果。对于每个结果,(X)有分别不同的取值。这就是一个映射的对应关系。
3、随机事件
在概率论中,将实验的结果称之为事件。在每次实验中,可能发生也可能不发生的事件,但在大量的实验中具有某种规律性,这种事件被称为随机事件,随机事件也叫偶然事件。(注意,随机事件和随机现象是有区别的。)
随机现象和随机事件的区别就在于,随机现象的发生是纯偶然性的,就像公交车的那个例子,每天的同一时段的乘车人数毫无规律性可言,因为这个事情本来就是随机的。但是随机事件不同,它是呈现一定的规律性的。比如每天的同一时段乘坐公交车的人数,我们发现每到周六人数都是10000,那这个事情就变成了一个随机事件了。
4、频率
假设,我们对某个随机现象进行了(n)次实验,其中(A)事件出现了(m)次,那么其出现的频率就是(frac{m}{n})。
这个应该很好理解(而且是基本知识)。
5、伯努利大数定律
设(n_A)为(n)次独立重复实验中事件(A)发生的次数,(p)是事件(A)在每次实验中发生的概率,则对于任意正数(epsilon>0),有:
或
上面这俩式子表示:当(n)趋近于正无穷的时候,出现事件(A)的频率无限趋近于这个事件(A)的概率。
证明过程我看不懂。
其含义是:当(n)足够大的时候,事件(A)出现的频率将无限接近于其发生的概率。这也揭示了频率的稳定性。
关于大数定律,除了伯努利大数定律之外,还有切比雪夫大数定律和辛钦大数定律。有兴趣的同学可以自己了解一下。
6、概率
概率反应的是随机事件出现的可能性大小,也叫或然率。
刚刚已经铺垫了伯努利大数定律,那么我们直到了,对于随机事件的一个频率,当(n)趋近于(infty)的时候,这个事件(A)的频率会无限接近于一个常数,那么这个常数就叫事件(A)的概率。
这应该算是概率的一个比较专业的定义吧。
这种我们研究的概率一般被称作古典概率。
也就是说,根据这个理论,如果在所有可能出现的事件范围内构成事件(A)的基本事件有(n)个,不构成事件(A)的事件有(m)个,那么出现事件(A)的概率为:
7、条件概率公式
条件概率,就是有前提条件的事件发生的概率。具体理解可为:
假设(A,B)为两个独立的事件,并设在(B)事件发生的前提下,(A)事件发生的概率为(P(A|B)).两个事件同时发生的概率为(P(AB)).那么有:
结合刚刚的古典概率基本公式,这应该是显然的。
8、贝叶斯公式
内容:对于两个独立的事件(A,B)来讲,他们俩同时发生的概率是
根据刚刚对概率的定义,这是显然的。
注意,这个长得很像积性函数的东西,并不是一个积性函数,因为(P(AB))表示的是(AB)这两个事件同时发生的概率。
9、期望
如果(X)是一个随机变量,它的取值分别是(x_1,x_2cdots x_n),那么一个随机事件就可以表示为(X=X_i),假设它的概率是(P(X=X_i)=p_i),那么它的期望被称为(E(X)),有:
通俗地理解,一个随机变量的期望就是这个随机变量的所有取值与其概率的乘积之和。
- 数学期望的性质
数学期望是线性函数,它满足:
这个性质是我们代码实现数学期望的时候进行递推求解的根源。