为什么计算样本标准差时,除以 N-1 而不是 N

标准差 是度量数据集离散度的一个重要指标,但是,本篇讨论的不是标准差 的作用和意义,

而是标准差计算中的一个细节问题。

实际情况下,一般会接触到两种标准差:总体标准差样本标准差,其中样本标准差是最常用的。

1. 总体标准差

总体标准差 的计算公式: <math xmlns="http://www.w3.org/1998/Math/MathML"> σ = 1 N ∑ i = 1 N ( x i − μ ) 2 \sigma = \sqrt{\frac{1}{N} \sum_{i=1}^N (x_i - \mu)^2} </math>σ=N1∑i=1N(xi−μ)2

其中, <math xmlns="http://www.w3.org/1998/Math/MathML"> N N </math>N是总的数据个数, <math xmlns="http://www.w3.org/1998/Math/MathML"> x i x_i </math>xi表示每个数据,
<math xmlns="http://www.w3.org/1998/Math/MathML"> μ \mu </math>μ是所有数据的平均值,即: <math xmlns="http://www.w3.org/1998/Math/MathML"> μ = 1 N ∑ i = 1 N x i \mu = \frac{1}{N} \sum_{i=1}^N x_i </math>μ=N1∑i=1Nxi

从公式来看,总体标准差很好理解,目的就是度量数据集中的数据偏离平均值的情况。

2. 样本标准差

再来看样本标准差 公式: <math xmlns="http://www.w3.org/1998/Math/MathML"> s = 1 N − 1 ∑ i = 1 N ( x i − x ˉ ) 2 s = \sqrt{\frac{1}{N-1} \sum_{i=1}^N (x_i - \bar{x})^2} </math>s=N−11∑i=1N(xi−xˉ)2

其中, <math xmlns="http://www.w3.org/1998/Math/MathML"> N N </math>N是样本集的数据个数, <math xmlns="http://www.w3.org/1998/Math/MathML"> x i x_i </math>xi表示每个样本数据,
<math xmlns="http://www.w3.org/1998/Math/MathML"> x ˉ \bar{x} </math>xˉ是样本数据的平均值,即: <math xmlns="http://www.w3.org/1998/Math/MathML"> x ˉ = 1 N ∑ i = 1 N x i \bar{x} = \frac{1}{N} \sum_{i=1}^N x_i </math>xˉ=N1∑i=1Nxi

从公式可以看出,样本标准差 计算时,用的 <math xmlns="http://www.w3.org/1998/Math/MathML"> 1 N − 1 \frac{1}{N-1} </math>N−11,而不是 <math xmlns="http://www.w3.org/1998/Math/MathML"> 1 N \frac{1}{N } </math>N1。

3. 为什么除以 (N-1)

为了区分总体标准差中 的数据个数,下面用 <math xmlns="http://www.w3.org/1998/Math/MathML"> N a l l N_{all} </math>Nall表示总体标准差 中的数据个数,

用 <math xmlns="http://www.w3.org/1998/Math/MathML"> N s a m p l e s N_{samples} </math>Nsamples表示样本标准差中的数据个数。

实际的数据分析中,常用的分析指标是样本标准差总体标准差 用的很少。

因为,总体数据量往往很庞大,而且新的数据不断产生,导致所谓的总体数据 也不断变化。

比如,对于民意调查结果,新闻内容,天气数据,股市交易等等,都是抽样做分析。

既然是抽样分析,那么,计算样本标准差时,是得不到整体数据的平均值 <math xmlns="http://www.w3.org/1998/Math/MathML"> μ \mu </math>μ的。

所以在样本标准差的计算公式中,我们用的是样本的平均值 <math xmlns="http://www.w3.org/1998/Math/MathML"> x ˉ \bar{x} </math>xˉ,而不是整体的平均值 <math xmlns="http://www.w3.org/1998/Math/MathML"> μ \mu </math>μ。

直观上来看,样本的平均值 <math xmlns="http://www.w3.org/1998/Math/MathML"> x ˉ \bar{x} </math>xˉ会要比整体的平均值 <math xmlns="http://www.w3.org/1998/Math/MathML"> μ \mu </math>μ更接近样本数据集中的数据,

所以,理论上 <math xmlns="http://www.w3.org/1998/Math/MathML"> ∑ i = 1 N s a m p l e s ( x i − x ˉ ) 2 \sum_{i=1}^{N_{samples}} (x_i - \bar{x})^2 </math>∑i=1Nsamples(xi−xˉ)2要比 <math xmlns="http://www.w3.org/1998/Math/MathML"> ∑ i = 1 N s a m p l e s ( x i − μ ) 2 \sum_{i=1}^{N_{samples}} (x_i - \mu)^2 </math>∑i=1Nsamples(xi−μ)2的值小一些。

因此, <math xmlns="http://www.w3.org/1998/Math/MathML"> 1 N s a m p l e s ∑ i = 1 N s a m p l e s ( x i − x ˉ ) 2 \frac{1}{N_{samples}}\sum_{i=1}^{N_{samples}} (x_i - \bar{x})^2 </math>Nsamples1∑i=1Nsamples(xi−xˉ)2也比 <math xmlns="http://www.w3.org/1998/Math/MathML"> 1 N s a m p l e s ∑ i = 1 N s a m p l e s ( x i − μ ) 2 \frac{1}{N_{samples}}\sum_{i=1}^{N_{samples}} (x_i - \mu)^2 </math>Nsamples1∑i=1Nsamples(xi−μ)2的值要小。

为了调整这个偏差,让样本标准差 能够更接近总体的标准差
样本标准差 公式中除以 <math xmlns="http://www.w3.org/1998/Math/MathML"> N s a m p l e s − 1 N_{samples}-1 </math>Nsamples−1而不是 <math xmlns="http://www.w3.org/1998/Math/MathML"> N s a m p l e s N_{samples} </math>Nsamples,

相当于调高了样本标准差的值,使之更接近**总体的标准差 **。

4. 补充

通过( <math xmlns="http://www.w3.org/1998/Math/MathML"> N s a m p l e s − 1 N_{samples}-1 </math>Nsamples−1)调节样本标准差 的过程也被称作贝塞尔校正Bessel's correction),

它的数学推导过程可以参考:贝塞尔校正

相关推荐
武子康1 小时前
AI-调查研究-106-具身智能 机器人学习数据采集工具和手段:传感器、API、遥操作、仿真与真人示教全流程
人工智能·深度学习·机器学习·ai·系统架构·机器人·具身智能
武子康2 小时前
AI-调查研究-107-具身智能 强化学习与机器人训练数据格式解析:从状态-动作对到多模态轨迹标准
人工智能·深度学习·机器学习·ai·系统架构·机器人·具身智能
西贝爱学习3 小时前
2025电脑价格数据集/构建电脑价格预测模型/数据量为 10 万行
数据分析·电脑
大千AI助手3 小时前
加权分位数直方图:提升机器学习效能的关键技术
人工智能·机器学习·xgboost·直方图·加权直方图·特征分裂
AI数据皮皮侠4 小时前
中国博物馆数据
大数据·人工智能·python·深度学习·机器学习
强哥之神4 小时前
从零理解 KV Cache:大语言模型推理加速的核心机制
人工智能·深度学习·机器学习·语言模型·llm·kvcache
Q26433650235 小时前
【有源码】基于Python与Spark的火锅店数据可视化分析系统-基于机器学习的火锅店综合竞争力评估与可视化分析-基于用户画像聚类的火锅店市场细分与可视化研究
大数据·hadoop·python·机器学习·数据分析·spark·毕业设计
W_chuanqi6 小时前
RDEx:一种效果驱动的混合单目标优化器,自适应选择与融合多种算子与策略
人工智能·算法·机器学习·性能优化
Theodore_10227 小时前
机器学习(3)梯度下降
人工智能·机器学习
JJJJ_iii9 小时前
【机器学习01】监督学习、无监督学习、线性回归、代价函数
人工智能·笔记·python·学习·机器学习·jupyter·线性回归