大数定律&中心极限定理

2023-12-30 23:25:57

1.切比雪夫不等式

切比雪夫不等式可以对随机变量偏离期望值的概率做出估计,这是大数定律的推理基础。以下介绍一个对切比雪夫不等式的直观证明。

1.1 示性函数

对于随机事件A,我们引入一个示性函数 I A = { 1 , A发生 0 , A不发生 I_A=\begin{cases} 1&,\text{A发生} \\ 0&,\text{A不发生} \end{cases} IA?={10?,A发生,A不发生?,即一次实验中,若 A A A发生了,则 I I I的值为1,否则为0。

现在思考一个问题:这个函数的自变量是什么?

我们知道,随机事件在做一次试验后有一个确定的观察结果,称这个观察结果为样本点 ω \omega ω,所有可能的样本点的集合称为样本空间$\Omega =\left { \omega \right } ,称 ,称 ,称\Omega 的一个子集 的一个子集 的一个子集A$为随机事件。

例如,掷一个六面骰子,记得到数字 k k k的样本点为 ω k \omega_k ωk?,则 Ω = { ω 1 , ω 2 , ω 3 , ω 4 , ω 5 , ω 6 } \Omega = \{\omega_1,\omega_2,\omega_3,\omega_4,\omega_5,\omega_6\} Ω={ω1?,ω2?,ω3?,ω4?,ω5?,ω6?},随机事件“得到的数字为偶数”为 A = { ω 2 , ω 4 , ω 6 } A = \{\omega_2,\omega_4,\omega_6\} A={ω2?,ω4?,ω6?}

由此可知,示性函数是关于样本点的函数,即
I A ( ω ) = { 1 , ω ∈ A 0 , ω ? A (试验后) I_A(\omega)=\begin{cases} 1&,\omega \in A \\ 0&,\omega \notin A \end{cases} \text {(试验后)} IA?(ω)={10?,ωA,ω/A?(试验后)

在试验之前,我们能获得哪个样本点也是未知的,因此样本点也是个随机事件,记为 ξ \xi ξ,相应的示性函数可以记为
I A = { 1 , ξ ∈ A 0 , ξ ? A (试验前) I_A=\begin{cases} 1&,\xi \in A \\ 0&,\xi \notin A \end{cases} \text {(试验前)} IA?={10?,ξA,ξ/A?(试验前)

在试验之前, I I I的值也是未知的,因此 I I I是个二值随机变量。这样,我们就建立了随机事件 A A A和随机变量 I I I之间的一一对应关系。

I I I求数学期望可得
E I A = 1 × P ( ξ ∈ A ) + 0 × P ( ξ ? A ) = P ( ξ ∈ A ) \mathbb{E}I_A=1 \times P(\xi \in A) + 0 \times P(\xi \notin A)=P(\xi \in A) EIA?=1×P(ξA)+0×P(ξ/A)=P(ξA)

P ( ξ ∈ A ) P(\xi \in A) P(ξA)是什么?是样本点落在 A A A里面的概率,也就是 A A A事件发生的概率 P ( A ) P(A) P(A),由此我们就得到了示性函数很重要的性质:其期望值正是对应的随机事件的概率,即
E I A = P ( A ) \mathbb{E}I_A=P(A) EIA?=P(A)

1.2 马尔科夫不等式

对于非负的随机变量 X X X和定值 a a a,考虑随机事件 A = { X ≥ a } A=\{X \ge a\} A={Xa},我们可以画出示性函数 I A I_A IA?关于观察值 x x x的图像,如图所示:
在这里插入图片描述

容易发现 I X ≥ a ( x ) ≤ x a I_{X \ge a}(x) \le \frac{x}{a} IXa?(x)ax?恒成立。把 x x x换为随机变量 X X X,再对该式取数学期望得
E I X ≥ a = P ( X ≥ a ) ≤ E X a \mathbb{E}I_{X \ge a}=P(X \ge a) \le \frac{\mathbb{E}X}{a} EIXa?=P(Xa)aEX?
称该不等式为马尔科夫Markov不等式

从理解上说,如果非负随机变量 X X X的期望存在,则 X X X超过某个定值 a a a的概率不超过 E a \frac{\mathbb{E}}{a} aE?。举个简单的例子:如果我们知道所有人收入的平均数 a a a,那么随机抽一个人收入超过 10 a 10a 10a的概率不超过 10 % 10\% 10%

根据图中两个函数的差距,我们大致能理解这个不等式对概率的估计时比较粗超的。

1.3 切比雪夫不等式

对于随机变量 X X X,记 μ = E X \mu = \mathbb{E}X μ=EX,考虑随机事件 A = { ∣ X ? μ ∣ ≥ a } A=\{|X-\mu|\ge a\} A={X?μa},其示性函数的图像如图所示:
在这里插入图片描述

易知 I ∣ X ? μ ∣ ≥ a ≤ ( x ? μ ) 2 a 2 I_{|X-\mu|\ge a}\le \frac{{(x-\mu)}^2}{a^2} IX?μa?a2(x?μ)2?恒成立。将该式 x x x换成 X X X并取数学期望得
E I ∣ X ? μ ∣ ≥ a = P ( ∣ X ? μ ∣ ≥ a ) ≤ D X a 2 \mathbb{E}I_{|X-\mu|\ge a}=P(|X-\mu|\ge a)\le \frac{\mathbb{D}X}{a^2} EIX?μa?=P(X?μa)a2DX?
称上面这个不等式为切比雪夫Chebyshev不等式

从理解上来说,如果随机变量 X X X的期望和方差存在,则 X X X和期望值的距离大于 a a a的概率不超过 D X a 2 \frac{\mathbb{D}X}{a^2} a2DX?,给定的范围越大( a a a越大),或 X X X的方差越小,则偏离的概率越小,这和直觉是相符的。

同样的,切比雪夫不等式对概率的估计也比较粗糙。


2. 大数定律

对于一系列随机变量 { X n } \{X_n\} {Xn?},设每个随机变量都有期望。由于随机变量之和 ∑ i = 1 n X i \sum_{i=1}^{n}X_i i=1n?Xi?很有可能发散到无穷大,我们转而考虑随机变量的均值 X ˉ n = 1 n ∑ i = 1 n X i {\bar{X}_n}=\frac{1}{n}\sum_{i=1}^{n}X_i Xˉn?=n1?i=1n?Xi?和其期望 E ( X ˉ n ) \mathbb{E}({\bar{X}_n}) E(Xˉn?)之间的距离。若 { X n } \{X_n\} {Xn?}满足一定条件,当 n n n足够大时,这个距离会以非常大的概率接近0,这就是大数定律的主要思想。

定义:
任取 ε > 0 \varepsilon >0 ε>0,若恒有 lim ? n → ∞ P ( ∣ X ˉ n ? E X ˉ n ∣ < ε ) = 1 \lim_{n \to \infty} P(\left | \bar{X}_n-\mathbb{E}\bar{X}_n \right | < \varepsilon )=1 limn?P( ?Xˉn??EXˉn? ?<ε)=1,称 { X n } \{X_n\} {Xn?}服从(弱)大数定律,称 X ˉ n \bar{X}_n Xˉn?依概率收敛于 E ( X ˉ n ) \mathbb{E}({\bar{X}_n}) E(Xˉn?),记作
X ˉ n ? P E ( X ˉ n ) \bar{X}_n\overset{P}{\longrightarrow} \mathbb{E}({\bar{X}_n}) Xˉn??P?E(Xˉn?)

2.1 马尔可夫大数定律

任取 ε > 0 \varepsilon >0 ε>0,由切比雪夫不等式可知
P ( ∣ X ˉ n ? E X ˉ n ∣ < ε ) ≥ 1 ? D ( X ˉ n ) ε 2 P(\left | \bar{X}_n-\mathbb{E}\bar{X}_n \right | < \varepsilon )\ge 1-\frac{\mathbb{D}({\bar{X}_n})}{{\varepsilon}^2} P( ?Xˉn??EXˉn? ?<ε)1?ε2D(Xˉn?)?
= 1 ? 1 ε 2 n 2 D ( ∑ i = 1 n X i ) =1-\frac{1}{{\varepsilon}^2n^2}\mathbb{D}(\sum_{i=1}^{n}X_i) =1?ε2n21?D(i=1n?Xi?)
由此得到马尔可夫大数定律:
如果 lim ? n → ∞ 1 n 2 D ( ∑ i = 1 n X i ) = 0 \lim_{n \to \infty}\frac{1}{n^2}\mathbb{D}(\sum_{i=1}^{n}X_i)=0 limn?n21?D(i=1n?Xi?)=0,则 { X n } \{X_n\} {Xn?}服从大数定律。

2.2 切比雪夫大数定律

在马尔可夫大数定律的基础上,如果 { X n } \{X_n\} {Xn?}两两不相关,则方差可以拆开:
1 n 2 D ( ∑ i = 1 n X i ) = 1 n 2 ∑ i = 1 n D X i \frac{1}{n^2}\mathbb{D}(\sum_{i=1}^{n}X_i)=\frac{1}{n^2}\sum_{i=1}^{n}\mathbb{D}X_i n21?D(i=1n?Xi?)=n21?i=1n?DXi?
如果 D X i \mathbb{D}X_i DXi?有共同的上界c,则
1 n 2 D ( ∑ i = 1 n X i ) ≤ n c n 2 = c n \frac{1}{n^2}\mathbb{D}(\sum_{i=1}^{n}X_i)\le \frac{nc}{n^2}=\frac{c}{n} n21?D(i=1n?Xi?)n2nc?=nc?
P ( ∣ X ˉ n ? E X ˉ n ∣ < ε ) ≥ 1 ? c ε 2 n P(\left | \bar{X}_n-\mathbb{E}\bar{X}_n \right | < \varepsilon )\ge 1-\frac{c}{{\varepsilon}^2n} P( ?Xˉn??EXˉn? ?<ε)1?ε2nc?
由此得到切比雪夫大数定律:
如果 { X n } \{X_n\} {Xn?}两两不相关,且方差有共同的上界,则 { X n } \{X_n\} {Xn?}两两不相关服从大数定律。


3. 中心极限定理

大数定律研究的是一系列随机变量 { X n } \{X_n\} {Xn?}的均值 X ˉ n = 1 n ∑ i = 1 n X i {\bar{X}_n}=\frac{1}{n}\sum_{i=1}^{n}X_i Xˉn?=n1?i=1n?Xi?是否会依概率收敛于其期望 E ( X ˉ n ) \mathbb{E}({\bar{X}_n}) E(Xˉn?)这个数值,而中心极限定理进一步研究 X ˉ n {\bar{X}_n} Xˉn?服从什么分布。若 { X n } \{X_n\} {Xn?}满足一定的条件,当 n n n足够大时, X ˉ n {\bar{X}_n} Xˉn?服从正态分布,这就是中心极限定理的主要思想,这也体现了正态分布的重要性和普遍性。

3.1 独立同分布中心极限定理(林德贝格-勒维)

如果 { X n } \{X_n\} {Xn?}独立同分布,且 E X = μ \mathbb{E}X=\mu EX=μ D X = σ 2 > 0 \mathbb{D}X={\sigma}^2>0 DX=σ2>0,则 n n n足够大时 X ˉ n {\bar{X}_n} Xˉn?近似服从正态分布 N ( μ , σ 2 n ) N(\mu, \frac{{\sigma}^2}{n}) N(μ,nσ2?),即
lim ? x → ∞ P ( X ˉ n ? μ σ / n < a ) = Φ ( a ) = ∫ ? ∞ a 1 2 π e ? t 2 / 2 d t \lim_{x \to \infty} P(\frac{{\bar X}_n-\mu}{\sigma / \sqrt{n}}<a)=\Phi (a)=\int_{-\infty}^{a}\frac{1}{\sqrt{2\pi}}e^{-t^2/2}dt xlim?P(σ/n ?Xˉn??μ?<a)=Φ(a)=?a?2π ?1?e?t2/2dt

文章来源:https://blog.csdn.net/PyDarren/article/details/135179623
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。