证明 几何分布 的期望和方差

几何分布

几何分布(Geometric Distribution)描述了在进行一系列独立的伯努利试验时,第一次成功所需的试验次数。假设每次试验成功的概率为 ( p ),则几何分布的概率质量函数(PMF)为:

P ( X = k ) = ( 1 − p ) k − 1 p , k = 1 , 2 , 3 , ... P(X = k) = (1 - p)^{k-1} p, \quad k = 1, 2, 3, \ldots P(X=k)=(1−p)k−1p,k=1,2,3,...

其中,随机变量 ( X ) 表示第一次成功所需的试验次数。

期望值

期望值(Expectation)表示随机变量的平均值。对于几何分布 ( X ),期望值 ( \mathbb{E}(X) ) 定义为:

E ( X ) = ∑ k = 1 ∞ k ⋅ P ( X = k ) \mathbb{E}(X) = \sum_{k=1}^{\infty} k \cdot P(X = k) E(X)=k=1∑∞k⋅P(X=k)

代入几何分布的概率质量函数:

E ( X ) = ∑ k = 1 ∞ k ⋅ ( 1 − p ) k − 1 p \mathbb{E}(X) = \sum_{k=1}^{\infty} k \cdot (1 - p)^{k-1} p E(X)=k=1∑∞k⋅(1−p)k−1p

我们可以将 ( p ) 提取出来:

E ( X ) = p ∑ k = 1 ∞ k ⋅ ( 1 − p ) k − 1 \mathbb{E}(X) = p \sum_{k=1}^{\infty} k \cdot (1 - p)^{k-1} E(X)=pk=1∑∞k⋅(1−p)k−1

为了计算这个和,我们使用以下求和公式:

∑ k = 1 ∞ k x k − 1 = 1 ( 1 − x ) 2 for ∣ x ∣ < 1 \sum_{k=1}^{\infty} k x^{k-1} = \frac{1}{(1 - x)^2} \quad \text{for} \quad |x| < 1 k=1∑∞kxk−1=(1−x)21for∣x∣<1

在这里,令 ( x = 1 - p ),因此有:

∑ k = 1 ∞ k ⋅ ( 1 − p ) k − 1 = 1 p 2 \sum_{k=1}^{\infty} k \cdot (1 - p)^{k-1} = \frac{1}{p^2} k=1∑∞k⋅(1−p)k−1=p21

代入上面的结果:

E ( X ) = p ⋅ 1 p 2 = 1 p \mathbb{E}(X) = p \cdot \frac{1}{p^2} = \frac{1}{p} E(X)=p⋅p21=p1

方差

方差(Variance)表示随机变量与其期望值之间的离散程度,记作 ( \text{Var}(X) )。方差的定义为:

Var ( X ) = E [ ( X − E ( X ) ) 2 ] = E ( X 2 ) − ( E ( X ) ) 2 \text{Var}(X) = \mathbb{E}[(X - \mathbb{E}(X))^2] = \mathbb{E}(X^2) - (\mathbb{E}(X))^2 Var(X)=E[(X−E(X))2]=E(X2)−(E(X))2

首先,我们计算 ( \mathbb{E}(X^2) )。利用几何级数求和,我们有:

E ( X 2 ) = ∑ k = 1 ∞ k 2 ⋅ ( 1 − p ) k − 1 p \mathbb{E}(X^2) = \sum_{k=1}^{\infty} k^2 \cdot (1 - p)^{k-1} p E(X2)=k=1∑∞k2⋅(1−p)k−1p

我们使用以下求和公式:

∑ k = 1 ∞ k 2 x k − 1 = 1 + x ( 1 − x ) 3 for ∣ x ∣ < 1 \sum_{k=1}^{\infty} k^2 x^{k-1} = \frac{1 + x}{(1 - x)^3} \quad \text{for} \quad |x| < 1 k=1∑∞k2xk−1=(1−x)31+xfor∣x∣<1

令 ( x = 1 - p ),因此有:

∑ k = 1 ∞ k 2 ⋅ ( 1 − p ) k − 1 = 1 + ( 1 − p ) ( 1 − ( 1 − p ) ) 3 = 2 − p p 3 \sum_{k=1}^{\infty} k^2 \cdot (1 - p)^{k-1} = \frac{1 + (1 - p)}{(1 - (1 - p))^3} = \frac{2 - p}{p^3} k=1∑∞k2⋅(1−p)k−1=(1−(1−p))31+(1−p)=p32−p

因此,

E ( X 2 ) = p ⋅ 2 − p p 3 = 2 − p p 2 \mathbb{E}(X^2) = p \cdot \frac{2 - p}{p^3} = \frac{2 - p}{p^2} E(X2)=p⋅p32−p=p22−p

现在我们可以计算方差:

Var ( X ) = E ( X 2 ) − ( E ( X ) ) 2 = 2 − p p 2 − ( 1 p ) 2 = 2 − p p 2 − 1 p 2 = 2 − p − 1 p 2 = 1 − p p 2 \text{Var}(X) = \mathbb{E}(X^2) - (\mathbb{E}(X))^2 = \frac{2 - p}{p^2} - \left(\frac{1}{p}\right)^2 = \frac{2 - p}{p^2} - \frac{1}{p^2} = \frac{2 - p - 1}{p^2} = \frac{1 - p}{p^2} Var(X)=E(X2)−(E(X))2=p22−p−(p1)2=p22−p−p21=p22−p−1=p21−p

结论

对于几何分布 ( X ),其期望值和方差分别为:

E ( X ) = 1 p \mathbb{E}(X) = \frac{1}{p} E(X)=p1

Var ( X ) = 1 − p p 2 \text{Var}(X) = \frac{1 - p}{p^2} Var(X)=p21−p

这些结果表明,在进行一系列独立的伯努利试验中,第一次成功所需的试验次数的平均值是E(x),而离散程度由Var(x)决定。

相关推荐
明月照山海-1 天前
机器学习周报十三
人工智能·机器学习·概率论
北京地铁1号线1 天前
概率统计面试题1:随机抛掷的点到圆心距离的期望
概率论
ratbag6720132 天前
概率论与数理统计专业重点学哪些知识?
概率论
Yingjun Mo2 天前
1. 统计推断-基于神经网络与Langevin扩散的自适应潜变量建模与优化
人工智能·神经网络·算法·机器学习·概率论
图先3 天前
概率论第五讲—大数定律与中心极限定理
概率论
图先6 天前
概率论第六讲—数理统计
概率论
西猫雷婶7 天前
scikit-learn/sklearn学习|广义线性回归损失函数的基本表达式
深度学习·神经网络·学习·机器学习·线性回归·scikit-learn·概率论
xz2024102****9 天前
最大似然估计:损失函数的底层数学原理
人工智能·算法·机器学习·概率论
kingmax542120089 天前
概率与数理统计公式及结论汇总
人工智能·机器学习·概率论
西猫雷婶10 天前
神经网络|(十九)概率论基础知识-伽马函数·下
人工智能·深度学习·神经网络·机器学习·回归·scikit-learn·概率论