关于样本方差的分母是 ( n-1 ) 而不是 ( n )的原因

样本方差的分母是 ( n-1 ) 而不是 ( n ) 的原因与统计学中的"自由度"概念有关。使用 ( n-1 ) 作为分母可以使样本方差成为总体方差的无偏估计量。

自由度

在计算样本方差时,我们需要先计算样本均值 ( \bar{x} )。样本中的 ( n ) 个数据点中,实际上只有 ( n-1 ) 个数据点是自由变化的,因为最后一个数据点可以通过样本均值和前面的 ( n-1 ) 个数据点确定。因此,我们说在计算样本方差时,有 ( n-1 ) 个自由度。

无偏估计

如果我们使用 ( n ) 作为分母来计算样本方差:

s n 2 = 1 n ∑ i = 1 n ( x i − x ˉ ) 2 s_n^2 = \frac{1}{n} \sum_{i=1}^n (x_i - \bar{x})^2 sn2=n1i=1∑n(xi−xˉ)2

这个估计量会系统性地低估总体方差 ( \sigma^2 )。这是因为在计算样本方差时,样本均值 ( \bar{x} ) 是根据样本数据计算出来的,这使得每个样本数据点 ( x_i ) 与 ( \bar{x} ) 的差异小于它们与总体均值 ( \mu ) 的差异。

为了纠正这种偏差,我们使用 ( n-1 ) 作为分母来计算样本方差:

s 2 = 1 n − 1 ∑ i = 1 n ( x i − x ˉ ) 2 s^2 = \frac{1}{n-1} \sum_{i=1}^n (x_i - \bar{x})^2 s2=n−11i=1∑n(xi−xˉ)2

这种调整使得样本方差成为总体方差的无偏估计量。这意味着在大量重复抽样的情况下,样本方差的期望值等于总体方差。

数学证明

为了证明这种调整的合理性,我们可以用期望值的概念进行解释。令样本方差的计算公式为:

s 2 = 1 n − 1 ∑ i = 1 n ( x i − x ˉ ) 2 s^2 = \frac{1}{n-1} \sum_{i=1}^n (x_i - \bar{x})^2 s2=n−11i=1∑n(xi−xˉ)2

然后考虑它的期望值:

E [ s 2 ] = E [ 1 n − 1 ∑ i = 1 n ( x i − x ˉ ) 2 ] E[s^2] = E\left[\frac{1}{n-1} \sum_{i=1}^n (x_i - \bar{x})^2\right] E[s2]=E[n−11i=1∑n(xi−xˉ)2]

经过数学推导,可以证明:

E [ s 2 ] = σ 2 E[s^2] = \sigma^2 E[s2]=σ2

这表明使用 ( n-1 ) 作为分母能使样本方差的期望值等于总体方差,从而使样本方差成为总体方差的无偏估计量。

相关推荐
the sun3414 小时前
概率论:随机变量的定义、常见离散型、连续型随机变量
概率论
做cv的小昊21 小时前
【TJU】应用统计学——第一周作业(1.1 数理统计的基本内容、1.2 数理统计的基本概念)
人工智能·笔记·考研·机器学习·数学建模·概率论
白云千载尽2 天前
深度思考——概率论与神经网络训练的关系
人工智能·神经网络·概率论
做cv的小昊2 天前
【TJU】研究生应用统计学课程笔记(5)——第二章 参数估计(2.3 C-R不等式)
c语言·笔记·线性代数·机器学习·数学建模·r语言·概率论
做cv的小昊3 天前
【TJU】应用统计学——第七周作业(4.2 多元线性回归分析、4.3 可化为线性回归的曲线回归、4.4 单因子方差分析)
线性代数·算法·数学建模·矩阵·回归·线性回归·概率论
点云侠5 天前
最小二乘拟合椭圆
线性代数·机器学习·概率论
the sun345 天前
概率论:条件概率与乘法公式深度剖析、常见概率类型
概率论
CM莫问6 天前
详解机器学习中的马尔可夫链
人工智能·算法·机器学习·概率论·马尔可夫·马尔科夫
做cv的小昊6 天前
【TJU】研究生应用统计学课程笔记(4)——第二章 参数估计(2.1 矩估计和极大似然估计、2.2估计量的优良性原则)
人工智能·笔记·考研·数学建模·数据分析·excel·概率论
朱阿朱7 天前
机器学习数学基础
人工智能·机器学习·概率论·高数