跳到主要内容

极限定理 (Limit Theorems)

极限定理是概率论的核心内容,揭示了大量随机现象背后的确定性规律。

0. 收敛性概念 (Convergence)

在进入大数定律前,需明确随机变量序列的四种主要收敛方式:

  1. 依概率收敛 (PP \to / Convergence in Probability):对任意 ϵ>0\epsilon > 0limnP(XnXϵ)=0\lim_{n \to \infty} P(|X_n - X| \ge \epsilon) = 0。记作 XnPXX_n \xrightarrow{P} X
  2. 依分布收敛 (dd \to / Convergence in Distribution):在 F(x)F(x) 的所有连续点,Fn(x)F(x)F_n(x) \to F(x)。记作 XndXX_n \xrightarrow{d} X
  3. 几乎处处收敛 (a.s. / Almost Sure Convergence)P(limnXn=X)=1P(\lim_{n \to \infty} X_n = X) = 1。记作 Xna.s.XX_n \xrightarrow{a.s.} X
  4. LpL^p 收敛E[XnXp]0E[|X_n - X|^p] \to 0

1. 大数定律 (Law of Large Numbers, LLN)

大数定律描述的是样本均值的稳定性(依概率收敛于期望)。

切比雪夫不等式 (Chebyshev's Inequality)

对于随机变量 XX,若其期望 E(X)=μE(X) = \mu 和方差 Var(X)=σ2Var(X) = \sigma^2 有限,则对任意 ϵ>0\epsilon > 0P(Xμϵ)σ2ϵ2P(|X - \mu| \ge \epsilon) \le \frac{\sigma^2}{\epsilon^2}

切比雪夫大数定律 (Chebyshev LLN)

X1,X2,X_1, X_2, \dots 是相互独立的随机变量序列,期望 E(Xi)=μiE(X_i) = \mu_i 且方差 Var(Xi)=σi2Var(X_i) = \sigma_i^2 满足 1n2σi20\frac{1}{n^2} \sum \sigma_i^2 \to 0,则: 1ni=1nXi1ni=1nμiP0\frac{1}{n} \sum_{i=1}^n X_i - \frac{1}{n} \sum_{i=1}^n \mu_i \xrightarrow{P} 0

辛钦大数定律 (Khinchin LLN)

X1,X2,X_1, X_2, \dots 独立同分布且期望 E(Xi)=μE(X_i) = \mu 存在,则: Xˉn=1ni=1nXiPμ\bar{X}_n = \frac{1}{n} \sum_{i=1}^n X_i \xrightarrow{P} \mu 注:这是数理统计中样本均值作为总体期望一致估计量的理论根据。

2. 中心极限定理 (Central Limit Theorem, CLT)

中心极限定理描述了独立随机变量之和的分布趋向于正态分布(依分布收敛)。

林德伯格-勒维定理 (Lindeberg-Levy CLT)

X1,X2,X_1, X_2, \dots 是独立同分布的随机变量序列,E(Xi)=μE(X_i) = \muVar(Xi)=σ2>0Var(X_i) = \sigma^2 > 0。则: Zn=i=1nXinμnσdN(0,1)Z_n = \frac{\sum_{i=1}^n X_i - n\mu}{\sqrt{n}\sigma} \xrightarrow{d} N(0, 1)

利用特征函数证明 (简述)
  1. Yi=XiμσY_i = \frac{X_i - \mu}{\sigma},则 E(Yi)=0,Var(Yi)=1E(Y_i)=0, Var(Y_i)=1
  2. YiY_i 的特征函数 ϕ(t)=1t22+o(t2)\phi(t) = 1 - \frac{t^2}{2} + o(t^2)
  3. Zn=1nYiZ_n = \frac{1}{\sqrt{n}} \sum Y_i 的特征函数为: ϕZn(t)=[ϕ(t/n)]n=[1t22n+o(t2n)]n\phi_{Z_n}(t) = [\phi(t/\sqrt{n})]^n = \left[1 - \frac{t^2}{2n} + o\left(\frac{t^2}{n}\right)\right]^n
  4. nn \to \infty 时,ϕZn(t)et2/2\phi_{Z_n}(t) \to e^{-t^2/2}
  5. 由唯一性定理及连续性定理,其极限分布为标准正态分布 N(0,1)N(0, 1)

棣莫弗-拉普拉斯定理 (De Moivre-Laplace CLT)

SnB(n,p)S_n \sim B(n, p),则: SnnpnpqdN(0,1)\frac{S_n - np}{\sqrt{npq}} \xrightarrow{d} N(0, 1)

4. 概率测度收敛性验证 (Convergence Verification)

理解收敛性的核心在于掌握不同强弱程度的收敛定义及其蕴含关系。

(1) 收敛性的蕴含关系 (Implications)

  1. LpL^p 收敛 (p1p \ge 1)     \implies 依概率收敛 (PP \to)
  2. 几乎处处收敛 (a.s.a.s. \to)     \implies 依概率收敛 (PP \to)
  3. 依概率收敛 (PP \to)     \implies 依分布收敛 (dd \to)

注意:反向蕴含一般不成立。例如,依分布收敛到常数时,可以推导出依概率收敛。

(2) 斯卢茨基定理 (Slutsky's Theorem)

XndXX_n \xrightarrow{d} XYnPcY_n \xrightarrow{P} c(常数),则:

  • Xn+YndX+cX_n + Y_n \xrightarrow{d} X + c
  • XnYndcXX_n Y_n \xrightarrow{d} cX
  • Xn/YndX/cX_n / Y_n \xrightarrow{d} X / c (若 c0c \neq 0

5. 计算验证:大数定律与中心极限定理模拟

通过蒙特卡洛模拟,我们可以直观看到样本均值如何趋向于正态分布(CLT)以及如何稳定在期望值(LLN)。

点击查看 C++ 验证代码
#include <iostream>
#include <random>
#include <vector>
#include <numeric>
#include <cmath>
#include <iomanip>

/**
* @brief 模拟中心极限定理
* 独立生成 n 个 U(0, 1) 分布的变量,计算均值,观测其分布。
*/
int main() {
std::mt19937 gen(42);
std::uniform_real_distribution<> dis(0.0, 1.0);

const int num_simulations = 10000; // 模拟次数
const int n_values[] = {1, 10, 100, 1000}; // 样本容量

std::cout << "--- LLN & CLT Simulation ---" << std::endl;
std::cout << std::fixed << std::setprecision(6);

for (int n : n_values) {
double total_sum = 0;
double sum_sq_diff = 0;
std::vector<double> means;

for (int i = 0; i < num_simulations; ++i) {
double sum = 0;
for (int j = 0; j < n; ++j) {
sum += dis(gen);
}
double mean = sum / n;
means.push_back(mean);
total_sum += mean;
}

double final_mean = total_sum / num_simulations;
// 计算模拟均值的标准差
for (double m : means) sum_sq_diff += std::pow(m - final_mean, 2);
double std_dev = std::sqrt(sum_sq_diff / num_simulations);

std::cout << "n = " << n
<< "\t Sample Mean: " << final_mean
<< "\t Std Dev: " << std_dev << std::endl;
}

std::cout << "\n注:对于 U(0,1),期望 mu=0.5, 方差 sigma^2=1/12." << std::endl;
std::cout << "由 CLT, 样本均值的标准差应接近 sqrt((1/12)/n)." << std::endl;

return 0;
}

6. 经典练习

:::info 练习 1 某高校共有 1000 名学生。每名学生在校用餐的概率为 0.6,且各学生是否用餐相互独立。问食堂至少应准备多少份午餐,才能以 95% 以上的概率保证不缺餐? (Φ(1.645)=0.95\Phi(1.645) = 0.95) :::

查看解析
  1. XiX_i 为第 ii 个学生是否用餐,XiB(1,0.6)X_i \sim B(1, 0.6)
  2. E(Xi)=0.6E(X_i) = 0.6Var(Xi)=0.6×0.4=0.24Var(X_i) = 0.6 \times 0.4 = 0.24
  3. 设准备 NN 份餐,S1000=XiS_{1000} = \sum X_i。要求 P(S1000N)0.95P(S_{1000} \le N) \ge 0.95
  4. 由 CLT,S1000N(nμ,nσ2)=N(600,240)S_{1000} \approx N(n\mu, n\sigma^2) = N(600, 240)
  5. 标准化:P(S1000600240N600240)0.95P\left(\frac{S_{1000} - 600}{\sqrt{240}} \le \frac{N - 600}{\sqrt{240}}\right) \ge 0.95
  6. 查表得 N6002401.645\frac{N - 600}{\sqrt{240}} \ge 1.645
  7. N600+1.645×15.49600+25.48=625.48N \ge 600 + 1.645 \times 15.49 \approx 600 + 25.48 = 625.48
  8. 结论:至少准备 626 份餐。

:::info 练习 2:蒙特卡洛积分基础 已知大数定律,如何估算 01f(x)dx\int_0^1 f(x) \, dx? :::

查看解析
  1. XU(0,1)X \sim U(0, 1),则 01f(x)dx=E[f(X)]\int_0^1 f(x) \, dx = E[f(X)]
  2. 生成 nn 个相互独立的 U(0,1)U(0, 1) 随机数 x1,,xnx_1, \dots, x_n
  3. 计算样本均值 1nf(xi)\frac{1}{n} \sum f(x_i)
  4. 根据大数定律,当 nn 足够大时,该均值依概率收敛于所求积分值。

本章节由 SolKnow 系统根据标准教材重写。