神经网络之样本方差的无偏估计

🧠 一、背景设定

设 (X1,X2,...,Xn)( X_1, X_2, \dots, X_n )(X1,X2,...,Xn) 是从总体中独立随机抽取的 ( n ) 个样本,满足:

  • 每个 (Xi∼i.i.d.)( X_i \sim \text{i.i.d.} )(Xi∼i.i.d.)
  • (E[Xi]=μ)( \mathbb{E}[X_i] = \mu )(E[Xi]=μ),总体均值
  • (Var(Xi)=σ2)( \text{Var}(X_i) = \sigma^2 )(Var(Xi)=σ2),总体方差

定义:

  • 样本均值:
    Xˉ=1n∑i=1nXi \bar{X} = \frac{1}{n} \sum_{i=1}^n X_i Xˉ=n1i=1∑nXi

  • 样本方差的无偏估计:
    S2=1n−1∑i=1n(Xi−Xˉ)2 S^2 = \frac{1}{n - 1} \sum_{i=1}^n (X_i - \bar{X})^2 S2=n−11i=1∑n(Xi−Xˉ)2

我们想要证明:

E[S2]=σ2 \mathbb{E}[S^2] = \sigma^2 E[S2]=σ2


🧮 二、推导过程

我们从样本方差的定义入手:

S2=1n−1∑i=1n(Xi−Xˉ)2 S^2 = \frac{1}{n-1} \sum_{i=1}^n (X_i - \bar{X})^2 S2=n−11i=1∑n(Xi−Xˉ)2

我们要计算:

E[S2]=1n−1E[∑i=1n(Xi−Xˉ)2] \mathbb{E}[S^2] = \frac{1}{n-1} \mathbb{E} \left[ \sum_{i=1}^n (X_i - \bar{X})^2 \right] E[S2]=n−11E[i=1∑n(Xi−Xˉ)2]

也就是说,我们只需要证明:

E[∑i=1n(Xi−Xˉ)2]=(n−1)σ2 \mathbb{E} \left[ \sum_{i=1}^n (X_i - \bar{X})^2 \right] = (n - 1)\sigma^2 E[i=1∑n(Xi−Xˉ)2]=(n−1)σ2


✂️ 步骤 1:展开偏差平方和

∑i=1n(Xi−Xˉ)2=∑i=1nXi2−nXˉ2 \sum_{i=1}^n (X_i - \bar{X})^2 = \sum_{i=1}^n X_i^2 - n\bar{X}^2 i=1∑n(Xi−Xˉ)2=i=1∑nXi2−nXˉ2

推导如下:

∑i=1n(Xi−Xˉ)2=∑Xi2−2Xˉ∑Xi+nXˉ2=∑Xi2−2nXˉ2+nXˉ2=∑Xi2−nXˉ2 \sum_{i=1}^n (X_i - \bar{X})^2 = \sum X_i^2 - 2\bar{X} \sum X_i + n\bar{X}^2 = \sum X_i^2 - 2n\bar{X}^2 + n\bar{X}^2 = \sum X_i^2 - n\bar{X}^2 i=1∑n(Xi−Xˉ)2=∑Xi2−2Xˉ∑Xi+nXˉ2=∑Xi2−2nXˉ2+nXˉ2=∑Xi2−nXˉ2

所以:

E[∑i=1n(Xi−Xˉ)2]=E[∑i=1nXi2−nXˉ2]=∑i=1nE[Xi2]−nE[Xˉ2] \mathbb{E}\left[\sum_{i=1}^n (X_i - \bar{X})^2 \right] = \mathbb{E}\left[ \sum_{i=1}^n X_i^2 - n\bar{X}^2 \right] = \sum_{i=1}^n \mathbb{E}[X_i^2] - n \mathbb{E}[\bar{X}^2] E[i=1∑n(Xi−Xˉ)2]=E[i=1∑nXi2−nXˉ2]=i=1∑nE[Xi2]−nE[Xˉ2]


📌 步骤 2:计算每一项的期望

2.1 (E[Xi2])(\mathbb{E}[X_i^2])(E[Xi2])

由于 (Xi∼i.i.d.)( X_i \sim \text{i.i.d.} )(Xi∼i.i.d.),所以对于每个 (i)( i )(i):

E[Xi2]=Var(Xi)+(E[Xi])2=σ2+μ2 \mathbb{E}[X_i^2] = \text{Var}(X_i) + (\mathbb{E}[X_i])^2 = \sigma^2 + \mu^2 E[Xi2]=Var(Xi)+(E[Xi])2=σ2+μ2

所以:

∑i=1nE[Xi2]=n(σ2+μ2) \sum_{i=1}^n \mathbb{E}[X_i^2] = n(\sigma^2 + \mu^2) i=1∑nE[Xi2]=n(σ2+μ2)

2.2 (E[Xˉ2])(\mathbb{E}[\bar{X}^2])(E[Xˉ2])

E[Xˉ2]=Var(Xˉ)+(E[Xˉ])2=σ2n+μ2 \mathbb{E}[\bar{X}^2] = \text{Var}(\bar{X}) + (\mathbb{E}[\bar{X}])^2 = \frac{\sigma^2}{n} + \mu^2 E[Xˉ2]=Var(Xˉ)+(E[Xˉ])2=nσ2+μ2

所以:

nE[Xˉ2]=n(σ2n+μ2)=σ2+nμ2 n\mathbb{E}[\bar{X}^2] = n\left( \frac{\sigma^2}{n} + \mu^2 \right) = \sigma^2 + n\mu^2 nE[Xˉ2]=n(nσ2+μ2)=σ2+nμ2


✨ 步骤 3:代入并相减

E[∑i=1n(Xi−Xˉ)2]=n(σ2+μ2)−(σ2+nμ2)=nσ2+nμ2−σ2−nμ2=(n−1)σ2 \mathbb{E}\left[ \sum_{i=1}^n (X_i - \bar{X})^2 \right] = n(\sigma^2 + \mu^2) - \left( \sigma^2 + n\mu^2 \right) = n\sigma^2 + n\mu^2 - \sigma^2 - n\mu^2 = (n - 1)\sigma^2 E[i=1∑n(Xi−Xˉ)2]=n(σ2+μ2)−(σ2+nμ2)=nσ2+nμ2−σ2−nμ2=(n−1)σ2


✅ 最后一步:代入样本方差

E[S2]=1n−1⋅E[∑i=1n(Xi−Xˉ)2]=1n−1⋅(n−1)σ2=σ2 \mathbb{E}[S^2] = \frac{1}{n - 1} \cdot \mathbb{E} \left[ \sum_{i=1}^n (X_i - \bar{X})^2 \right] = \frac{1}{n - 1} \cdot (n - 1)\sigma^2 = \sigma^2 E[S2]=n−11⋅E[i=1∑n(Xi−Xˉ)2]=n−11⋅(n−1)σ2=σ2


🎉 结论

E[S2]=σ2 \mathbb{E}[S^2] = \sigma^2 E[S2]=σ2

因此,

样本方差 (S2=1n−1∑(Xi−Xˉ)2)( S^2 = \frac{1}{n-1} \sum (X_i - \bar{X})^2 )(S2=n−11∑(Xi−Xˉ)2) 是总体方差 (σ2)( \sigma^2 )(σ2) 的无偏估计。


💡 为什么要除以 (n−1)( n - 1 )(n−1) 而不是 (n)( n )(n)?

直觉解释:

  • 当你用样本估计总体均值 (μ)( \mu )(μ) 时,用的是 样本均值 (Xˉ)( \bar{X} )(Xˉ),这是一个对数据的"估计";
  • 因为你已经用数据"消耗"了一部分自由度去估计 (Xˉ)( \bar{X} )(Xˉ),所以在计算方差时,不能再当作所有 (n)( n )(n) 个数据都是独立的
  • 这就是统计学中所说的:自由度减少了 1 ,因此方差需要除以 (n−1)( n - 1 )(n−1)。
相关推荐
半臻(火白)17 分钟前
Prompt-R1:重新定义AI交互的「精准沟通」范式
人工智能
菠菠萝宝29 分钟前
【AI应用探索】-10- Cursor实战:小程序&APP - 下
人工智能·小程序·kotlin·notepad++·ai编程·cursor
连线Insight40 分钟前
架构调整后,蚂蚁继续死磕医疗健康“硬骨头”
人工智能
小和尚同志44 分钟前
十月份 AI Coding 实践!Qoder、CC、Codex 还是 iflow?
人工智能·aigc
keke.shengfengpolang1 小时前
中专旅游管理专业职业发展指南:从入门到精通的成长路径
人工智能·旅游
Danceful_YJ1 小时前
35.微调BERT
人工智能·深度学习·bert
ZPC82101 小时前
FPGA 部署ONNX
人工智能·python·算法·机器人
愿没error的x1 小时前
深度学习基础知识总结(一):深入理解卷积(Convolution)
人工智能·深度学习
罗西的思考1 小时前
【智能硬件】AI 眼镜论文笔记
人工智能
AI浩1 小时前
Mamba YOLO: 基于状态空间模型的目标检测简单基线
人工智能·yolo·目标检测