中心极限定理的三种形式

独立同分布的中心极限定理

设 X 1 , X 2 , ... , X n X_1, X_2, \ldots, X_n X1,X2,...,Xn是独立同分布的随机变量序列,且 E ( X i ) = μ E(X_i) = \mu E(Xi)=μ, D ( X i ) = σ 2 > 0 D(X_i) = \sigma^2 > 0 D(Xi)=σ2>0存在,则随机变量之和 ∑ i = 1 n X i \sum_{i=1}^{n}X_i ∑i=1nXi的标准化变量 ∑ i = 1 n X i − n μ n σ \frac{\sum_{i=1}^{n}X_i - n\mu}{\sqrt{n}\sigma} n σ∑i=1nXi−nμ的分布函数 F n ( x ) F_n(x) Fn(x)对于任意 x x x满足 lim ⁡ n → ∞ F n ( x ) = Φ ( x ) \lim_{{n \to \infty}} F_n(x) = \Phi(x) limn→∞Fn(x)=Φ(x),其中 Φ ( x ) \Phi(x) Φ(x)是标准正态分布的分布函数。

概率统计中的定义从来不说人话。独立同分布中心极限定理结果的有三种解释形式。然而有人总掺和到一起说。

  1. 设 X 1 , X 2 , ... , X n X_1, X_2, \ldots, X_n X1,X2,...,Xn是独立同分布的随机变量序列,每个 X i X_i Xi都有相同的期望值 μ \mu μ和有限的方差 σ 2 \sigma^2 σ2。随机变量的和 S n = ∑ i = 1 n X i S_n = \sum_{i=1}^{n} X_i Sn=∑i=1nXi,当 n n n充分大时, S n S_n Sn的分布趋近于均值为 n μ n\mu nμ、方差为 n σ 2 n\sigma^2 nσ2的正态分布:

S n ∼ N ( n μ , n σ 2 ) S_n \sim N(n\mu, n\sigma^2) Sn∼N(nμ,nσ2)

  1. 均值为 μ μ μ、方差为 σ 2 > 0 σ² > 0 σ2>0的独立同分布的随机变量 X 1 , X 2 , ⋯   , X n X_1, X_2, \cdots, X_n X1,X2,⋯,Xn的算术平均 X ˉ = 1 n ∑ k = 1 n X k \bar{X} = \frac{1}{n} \sum_{k=1}^{n} X_k Xˉ=n1∑k=1nXk,当 n n n充分大时,近似地服从均值为 μ μ μ、方差为 σ 2 / n σ²/n σ2/n的正态分布。
    X ˉ ∼ N ( μ , σ 2 n ) \bar{X} \sim N\left(\mu, \frac{\sigma^2}{n}\right) Xˉ∼N(μ,nσ2)

  2. 假设有任意分布的总体,其均值为 μ \mu μ,方差为 σ 2 \sigma^2 σ2(有限值)。从这个总体中抽取 n n n个独立样本 X 1 , X 2 , ⋯   , X n X_1, X_2, \cdots, X_n X1,X2,⋯,Xn,当样本数 n n n充分大时,样本均值 X ˉ \bar{X} Xˉ近似服从正态分布,其均值为 μ \mu μ,标准差为 σ n \frac{\sigma}{\sqrt{n}} n σ。

    这一结果是数理统计中大样本统计推断的基础。

相关推荐
二川bro22 分钟前
TensorFlow.js 全面解析:在浏览器中构建机器学习应用
javascript·机器学习·tensorflow
dearxue1 小时前
「新」AI Coding(Agent) 的一点总结和看法
机器学习·aigc
没学上了2 小时前
数据集构建与训练前准备
开发语言·python·opencv·机器学习·计算机视觉·yolov8
月亮月亮要去太阳3 小时前
结合rpart包的决策树介绍
算法·决策树·机器学习
阿里云大数据AI技术3 小时前
云上一键部署通义千问 QwQ-32B 模型,阿里云 PAI 最佳实践
人工智能·机器学习
人间打气筒(Ada)4 小时前
基于 SVM(支持向量机)的手写数字识别
算法·机器学习·支持向量机
AI技术控4 小时前
机器学习实战——音乐流派分类(主页有源码)
人工智能·机器学习·分类
硅谷秋水5 小时前
RoboVQA:机器人多模态长范围推理
人工智能·深度学习·机器学习·计算机视觉·语言模型·机器人
浪九天5 小时前
面向高质量视频生成的扩散模型方法-算法、架构与实现【附核心代码】
python·深度学习·算法·机器学习·自然语言处理·数据挖掘·音视频
RK_Dangerous5 小时前
【机器学习】强化学习(3)——深度强化学习的数学知识
人工智能·机器学习