中心极限定理的三种形式

独立同分布的中心极限定理

设 X 1 , X 2 , ... , X n X_1, X_2, \ldots, X_n X1,X2,...,Xn是独立同分布的随机变量序列,且 E ( X i ) = μ E(X_i) = \mu E(Xi)=μ, D ( X i ) = σ 2 > 0 D(X_i) = \sigma^2 > 0 D(Xi)=σ2>0存在,则随机变量之和 ∑ i = 1 n X i \sum_{i=1}^{n}X_i ∑i=1nXi的标准化变量 ∑ i = 1 n X i − n μ n σ \frac{\sum_{i=1}^{n}X_i - n\mu}{\sqrt{n}\sigma} n σ∑i=1nXi−nμ的分布函数 F n ( x ) F_n(x) Fn(x)对于任意 x x x满足 lim ⁡ n → ∞ F n ( x ) = Φ ( x ) \lim_{{n \to \infty}} F_n(x) = \Phi(x) limn→∞Fn(x)=Φ(x),其中 Φ ( x ) \Phi(x) Φ(x)是标准正态分布的分布函数。

概率统计中的定义从来不说人话。独立同分布中心极限定理结果的有三种解释形式。然而有人总掺和到一起说。

  1. 设 X 1 , X 2 , ... , X n X_1, X_2, \ldots, X_n X1,X2,...,Xn是独立同分布的随机变量序列,每个 X i X_i Xi都有相同的期望值 μ \mu μ和有限的方差 σ 2 \sigma^2 σ2。随机变量的和 S n = ∑ i = 1 n X i S_n = \sum_{i=1}^{n} X_i Sn=∑i=1nXi,当 n n n充分大时, S n S_n Sn的分布趋近于均值为 n μ n\mu nμ、方差为 n σ 2 n\sigma^2 nσ2的正态分布:

S n ∼ N ( n μ , n σ 2 ) S_n \sim N(n\mu, n\sigma^2) Sn∼N(nμ,nσ2)

  1. 均值为 μ μ μ、方差为 σ 2 > 0 σ² > 0 σ2>0的独立同分布的随机变量 X 1 , X 2 , ⋯   , X n X_1, X_2, \cdots, X_n X1,X2,⋯,Xn的算术平均 X ˉ = 1 n ∑ k = 1 n X k \bar{X} = \frac{1}{n} \sum_{k=1}^{n} X_k Xˉ=n1∑k=1nXk,当 n n n充分大时,近似地服从均值为 μ μ μ、方差为 σ 2 / n σ²/n σ2/n的正态分布。
    X ˉ ∼ N ( μ , σ 2 n ) \bar{X} \sim N\left(\mu, \frac{\sigma^2}{n}\right) Xˉ∼N(μ,nσ2)

  2. 假设有任意分布的总体,其均值为 μ \mu μ,方差为 σ 2 \sigma^2 σ2(有限值)。从这个总体中抽取 n n n个独立样本 X 1 , X 2 , ⋯   , X n X_1, X_2, \cdots, X_n X1,X2,⋯,Xn,当样本数 n n n充分大时,样本均值 X ˉ \bar{X} Xˉ近似服从正态分布,其均值为 μ \mu μ,标准差为 σ n \frac{\sigma}{\sqrt{n}} n σ。

    这一结果是数理统计中大样本统计推断的基础。

相关推荐
羊小猪~~2 小时前
深度学习基础--CNN经典网络之InceptionV1研究与复现(pytorch)
网络·人工智能·pytorch·深度学习·神经网络·机器学习·cnn
硅谷秋水2 小时前
AutoEval:现实世界中通才机器人操作策略的自主评估
人工智能·机器学习·计算机视觉·机器人
搏博8 小时前
在WPS中通过JavaScript宏(JSA)调用DeepSeek官网API优化文档教程
javascript·人工智能·windows·深度学习·机器学习·wps
2201_754918419 小时前
机器学习--词向量转换
人工智能·机器学习
AI十八式10 小时前
KDD 2025 顶会最新力作,多变量时间序列预测登顶!
算法·机器学习·支持向量机
Kita~Ikuyo11 小时前
基础数学:线性代数与优化理论
人工智能·线性代数·算法·机器学习
小森776712 小时前
(四)机器学习---逻辑回归及其Python实现
人工智能·python·算法·机器学习·逻辑回归·线性回归
补三补四12 小时前
【深度学习基础】——机器的神经元:感知机
人工智能·深度学习·算法·机器学习
liruiqiang0512 小时前
循环神经网络 - 长短期记忆网络
人工智能·rnn·深度学习·神经网络·机器学习·ai·lstm