|
| 1 | +# 5 大数定律与中心极限定理 |
| 2 | + |
| 3 | +## 大数定律 |
| 4 | + |
| 5 | +### 依概率收敛 |
| 6 | + |
| 7 | +设 $Y_1,Y_2,\cdots,Y_n,\cdots$ 是随机变量序列,$Y$ 是随机变量,如果对于任意正数 $\varepsilon>0$,都有 $\lim\limits_{n\to\infty}P(|Y_n-Y|\ge\varepsilon)=0$,则称 $Y_n$ **依概率收敛于** $Y$,记作 $Y_n\xrightarrow PY$。 |
| 8 | + |
| 9 | +特别地,当 $Y$ 服从退化分布,即 $P(Y=c)=1$,称 $Y_n$ 依概率收敛于 $c$,记作 $Y_n\xrightarrow Pc$。 |
| 10 | + |
| 11 | +> [!note] |
| 12 | +> |
| 13 | +> $Y_n\xrightarrow PY$ 理解为:当样本容量 $n$ 充分大时,$Y_n$ 与 $Y$ 充分接近。 |
| 14 | +> |
| 15 | +> 关于不依概率收敛到常数,而是依概率收敛到另一个随机变量的情况:完全可能出现,因为没说它们之间是相互独立的。例如有随机变量 $Y$(分布任意)和噪声源 $X\sim U(-1,1)$,有随机变量序列 $Y_i=Y+\dfrac1iX$,那就有 $Y_n\xrightarrow PY$。 |
| 16 | +
|
| 17 | +### 两个概率不等式 |
| 18 | + |
| 19 | +**马尔可夫不等式**:对于**非负**随机变量 $X$,$\forall p,e>0$ 有 |
| 20 | + |
| 21 | +$$ |
| 22 | +P(X\ge\varepsilon)\le\frac{E(X^p)}{\varepsilon^p} |
| 23 | +$$ |
| 24 | + |
| 25 | +**切比雪夫不等式**:对于**非负**随机变量 $X$,$\forall \varepsilon>0$ 有 |
| 26 | + |
| 27 | +$$ |
| 28 | +P(|X-E(X)|\ge\varepsilon)\le\frac{\operatorname {Var}(x)}{\varepsilon^2} |
| 29 | +$$ |
| 30 | + |
| 31 | +> [!note] |
| 32 | +> |
| 33 | +> **理解两个不等式** |
| 34 | +> |
| 35 | +> 取 $p=1$,马尔可夫不等式在说:对于非负随机变量 $X$,如果知道了均值 $\mu$,能约束它“大得离谱”的概率。 |
| 36 | +> |
| 37 | +> 上界怎么来的?来源于**非负**。要让 $P(X\ge\varepsilon)$ 最大,那让 $X\ge\varepsilon$ 的部分尽可能小,取 $\varepsilon$;其余部分也尽可能小,取 $0$。那要维持均值 $\mu$,就有 $\varepsilon P(X\ge\varepsilon)+0=\mu$,自然得到这个概率是 $\dfrac\mu\varepsilon$。 |
| 38 | +> |
| 39 | +> 完整版再加个 $p$ 次方。 |
| 40 | +> |
| 41 | +> --- |
| 42 | +> |
| 43 | +> 切比雪夫不等式在说:知道方差 $\sigma^2$,就能约束偏离均值的概率。偏离 $\varepsilon$ 的概率不会超过 $\dfrac{\sigma^2}{\varepsilon^2}$。 |
| 44 | +> |
| 45 | +> 切比雪夫不等式是马尔可夫不等式中取 $p=2$ 并用 $X-\mu$ 替代 $X$ 得到的。 |
| 46 | +
|
| 47 | +### 大数定律 |
| 48 | + |
| 49 | +设有随机变量 $X_1,X_2,\cdots,X_n,\cdots$,记 $\bar X=\dfrac1n\sum\limits_{i=0}^nX_i$,如果满足 $\bar X-E(\bar X)\xrightarrow P0$,称随机变量序列 $X_1,X_2,\cdots,X_n,\cdots$ 服从大数定律。 |
| 50 | + |
| 51 | +**马尔可夫大数定律**:如果随机变量序列满足 $\lim\limits_{n\to\infty}\dfrac1{n^2}\operatorname {Var}\left(\sum\limits_{i=1}^nX_i\right)=0$,则服从大数定律。 |
| 52 | + |
| 53 | +**辛钦大数定律**:独立同分布的随机变量序列,只要期望存在,就服从大数定律。 |
| 54 | + |
| 55 | +> [!note] |
| 56 | +> |
| 57 | +> **理解大数定律** |
| 58 | +> |
| 59 | +> 对于**独立同分布**的变量 $X_1,X_2,\cdots,X_n,\cdots$,设每次期望是 $\mu$,方差是 $\sigma^2$。考虑其样本均值 $\bar X$,随着次数 $n$ 的增大: |
| 60 | +> |
| 61 | +> - 均值期望不会变:$E(\bar X)=\mu$ |
| 62 | +> - 均值方差会变小:$\operatorname {Var}(\bar X)=\dfrac{\sigma^2}n$ |
| 63 | +> |
| 64 | +> 根据切比雪夫不等式,$\bar X$ 偏离均值 $\varepsilon$ 的概率不会超过 $\dfrac{\sigma^2}{n\varepsilon^2}$。当 $n\to\infty$ 时这个概率 $\to0$。也就是说 $\bar X\xrightarrow P\mu$,服从大数定律。 |
| 65 | +> |
| 66 | +> 核心就在于均值方差在随着 $\dfrac1n$ 变小,$n\to\infty$ 的时候就彻底退化到 $0$ 了。 |
| 67 | +> |
| 68 | +> **如果不是独立同分布,那「均值方差 $\to0$」这件事就只能靠增加条件来约束了。** |
| 69 | +
|
| 70 | +## 中心极限定理 |
| 71 | + |
| 72 | +### 按分布收敛 |
| 73 | + |
| 74 | +设随机变量 $Y,Y_1,Y_2,\cdots,Y_n,\cdots$ 的分布函数 $F(x),F_1(x),F_2(x),\cdots,F_n(x),\cdots$,若对 $F(x)$ 的任一连续点 $x$ 都有 $\lim\limits_{n\to\infty}F_n(x)=F(x)$,则称随机变量序列 $Y_1,Y_2,\cdots,Y_n,\cdots$ **按分布收敛于**随机变量 $Y$,记作 $Y_n\xrightarrow LY$。 |
| 75 | + |
| 76 | +> [!tip] |
| 77 | +> |
| 78 | +> 也可以写「按分布收敛于某一分布」,例如 $X\xrightarrow LN(0,1)$。 |
| 79 | +
|
| 80 | +### 中心极限定理 |
| 81 | + |
| 82 | +中心极限定理是指这样的**一类结论**:在某些条件下,会有 |
| 83 | + |
| 84 | +$$ |
| 85 | +(\bar X)^* |
| 86 | +=({\textstyle\sum} X_i)^* |
| 87 | +=\frac{\sum X_i-E(\sum X_i)}{\sigma(\sum X_i)} |
| 88 | +\xrightarrow LN(0,1) |
| 89 | +$$ |
| 90 | + |
| 91 | +只介绍其中的一个。 |
| 92 | + |
| 93 | +**林德伯格-莱维中心极限定理**:对于**独立同分布**随机变量 $X_1,\cdots,X_n,\cdots$,有 $E(X_1)=\mu$,$\operatorname {Var}(X_1)=\sigma^2$,则 |
| 94 | + |
| 95 | +$$ |
| 96 | +Y_n=\frac{\bar X-\mu}{\sigma/\sqrt n}\xrightarrow LN(0,1) |
| 97 | +$$ |
0 commit comments