概率论——大数定律

依据考研数学的安排,在学习大数定律之前引入这样两个先修知识点:

(1)切比雪夫不等式:,对任意的ε>0.

            它的意义是:事件大多会集中在它的期望附近

(2)依概率收敛:如果xn是一个随机变量序列、A是一个常数,对任意的ε>0,有

            ,则称Xn依概率收敛于常数A

       依概率收敛并不同于传统意义上的“实验无数次后频率会无限靠近概率”,它实际上在概率附近划出了一个小的边界ε。实验结果当然可能发生波动,这个边界的作用就是把波动限制在一个很小的范围内。即使超出这个边界,也只是一个小概率事件。(小概率事件是指在一次实验中几乎不可能发生的事件,而在重复实验中一定会发生。)

接着看大数定律:

(1)切比雪夫大数定律:\lim _ { n \rightarrow \infty } P \{ | \frac { 1 } { n } \sum _ { i = 1 } ^ { n } x _ { i } - \frac { 1 } { n } \sum _ { i = 1 } ^ { n } E ( x _ { i } ) | < \varepsilon \} = 1

    这里显然是不严谨的,因为为了方便表述我们省略掉了一些前提条件,好在并不影响对于这个定律本身的理解。

    它的数学意义显而易见:算数平均值依概率收敛于数学期望。当我们中学做的物理实验中采用多次实验取平均值的方法来减小误差时,实际上理论依据就是切比雪夫大数定律。

(2)伯努利大数定律:

    伯努利大数定律的条件是Xn服从B(n,p),也就是说Xn是n重伯努利实验中事件发生的次数,它的数学意义是频率依概率收敛于统计概率。伯努利大数定律实际上是切比雪夫大数定律的一种特殊情况。

(3)辛钦大数定律:

    辛钦大数定律在表述上和切比雪夫相差不多,但它的特点在于要求Xi独立同分布,并且要存在期望。

(4)棣莫弗——拉普拉斯中心极限定理

    设随机变量Xn服从B(n,p),则对于任意实数x,有,其中φ(x)是标准正态的分布函数。

    结论:Xn近似服从于N(np,np(1-p))

(5)列维——林德伯格中心极限定理

    条件:Xn独立同分布、期望和方差存在,有 

    结论:近似服从于N(nμ,n)

我们先给出这两个中心极限定理,可能不太好懂,好在他们之间有很深的关系,或者说棣莫弗实际是列维的特殊情况(服从B(n,p))。有了上述的两个中心极限定理,我们就可以在n很大的情况下把任意一个复杂的分布近似地看作一个正态分布,大大减少了分析的难度。(当然,要符合前提条件)

你可能感兴趣的:(概率论——大数定律)