中心极限定理的三种形式

独立同分布的中心极限定理

设 X 1 , X 2 , ... , X n X_1, X_2, \ldots, X_n X1,X2,...,Xn是独立同分布的随机变量序列,且 E ( X i ) = μ E(X_i) = \mu E(Xi)=μ, D ( X i ) = σ 2 > 0 D(X_i) = \sigma^2 > 0 D(Xi)=σ2>0存在,则随机变量之和 ∑ i = 1 n X i \sum_{i=1}^{n}X_i ∑i=1nXi的标准化变量 ∑ i = 1 n X i − n μ n σ \frac{\sum_{i=1}^{n}X_i - n\mu}{\sqrt{n}\sigma} n σ∑i=1nXi−nμ的分布函数 F n ( x ) F_n(x) Fn(x)对于任意 x x x满足 lim ⁡ n → ∞ F n ( x ) = Φ ( x ) \lim_{{n \to \infty}} F_n(x) = \Phi(x) limn→∞Fn(x)=Φ(x),其中 Φ ( x ) \Phi(x) Φ(x)是标准正态分布的分布函数。

概率统计中的定义从来不说人话。独立同分布中心极限定理结果的有三种解释形式。然而有人总掺和到一起说。

  1. 设 X 1 , X 2 , ... , X n X_1, X_2, \ldots, X_n X1,X2,...,Xn是独立同分布的随机变量序列,每个 X i X_i Xi都有相同的期望值 μ \mu μ和有限的方差 σ 2 \sigma^2 σ2。随机变量的和 S n = ∑ i = 1 n X i S_n = \sum_{i=1}^{n} X_i Sn=∑i=1nXi,当 n n n充分大时, S n S_n Sn的分布趋近于均值为 n μ n\mu nμ、方差为 n σ 2 n\sigma^2 nσ2的正态分布:

S n ∼ N ( n μ , n σ 2 ) S_n \sim N(n\mu, n\sigma^2) Sn∼N(nμ,nσ2)

  1. 均值为 μ μ μ、方差为 σ 2 > 0 σ² > 0 σ2>0的独立同分布的随机变量 X 1 , X 2 , ⋯   , X n X_1, X_2, \cdots, X_n X1,X2,⋯,Xn的算术平均 X ˉ = 1 n ∑ k = 1 n X k \bar{X} = \frac{1}{n} \sum_{k=1}^{n} X_k Xˉ=n1∑k=1nXk,当 n n n充分大时,近似地服从均值为 μ μ μ、方差为 σ 2 / n σ²/n σ2/n的正态分布。
    X ˉ ∼ N ( μ , σ 2 n ) \bar{X} \sim N\left(\mu, \frac{\sigma^2}{n}\right) Xˉ∼N(μ,nσ2)

  2. 假设有任意分布的总体,其均值为 μ \mu μ,方差为 σ 2 \sigma^2 σ2(有限值)。从这个总体中抽取 n n n个独立样本 X 1 , X 2 , ⋯   , X n X_1, X_2, \cdots, X_n X1,X2,⋯,Xn,当样本数 n n n充分大时,样本均值 X ˉ \bar{X} Xˉ近似服从正态分布,其均值为 μ \mu μ,标准差为 σ n \frac{\sigma}{\sqrt{n}} n σ。

    这一结果是数理统计中大样本统计推断的基础。

相关推荐
xz2024102****2 小时前
吴恩达机器学习合集
人工智能·机器学习
anneCoder2 小时前
AI大模型应用研发工程师面试知识准备目录
人工智能·深度学习·机器学习
空白到白3 小时前
机器学习-决策树
人工智能·决策树·机器学习
纪东东3 小时前
机器学习——使用K近邻算法实现一个识别手写数字系统
人工智能·机器学习·近邻算法
THMAIL3 小时前
机器学习从入门到精通 - 数据预处理实战秘籍:清洗、转换与特征工程入门
人工智能·python·算法·机器学习·数据挖掘·逻辑回归
Moutai码农4 小时前
1.5、机器学习-回归算法
人工智能·机器学习·回归
非门由也4 小时前
《sklearn机器学习——绘制分数以评估模型》验证曲线、学习曲线
人工智能·机器学习·sklearn
THMAIL4 小时前
深度学习从入门到精通 - AutoML与神经网络搜索(NAS):自动化模型设计未来
人工智能·python·深度学习·神经网络·算法·机器学习·逻辑回归
wei_shuo4 小时前
使用 Auto-Keras 进行自动化机器学习
机器学习·自动化·keras
aliedudu7 小时前
决策树概念与原理
算法·决策树·机器学习