线性代数:多个随机变量相加的方差

对于多个随机变量相加的方差,我们可以按照独立和不独立的情况进行讨论。

1. 独立情况下的证明

假设我们有 n n n 个独立的随机变量 X 1 , X 2 , ... , X n X_1, X_2, \ldots, X_n X1,X2,...,Xn。

根据方差的性质,如果随机变量是独立的,则它们的方差可以直接相加:
Var ( X 1 + X 2 + ... + X n ) = Var ( X 1 ) + Var ( X 2 ) + ... + Var ( X n ) \text{Var}(X_1 + X_2 + \ldots + X_n) = \text{Var}(X_1) + \text{Var}(X_2) + \ldots + \text{Var}(X_n) Var(X1+X2+...+Xn)=Var(X1)+Var(X2)+...+Var(Xn)
证明

  1. 首先,计算期望: E [ X 1 + X 2 + ... + X n ] = E [ X 1 ] + E [ X 2 ] + ... + E [ X n ] \mathbb{E}[X_1 + X_2 + \ldots + X_n] = \mathbb{E}[X_1] + \mathbb{E}[X_2] + \ldots + \mathbb{E}[X_n] E[X1+X2+...+Xn]=E[X1]+E[X2]+...+E[Xn]
  2. 然后,使用方差的定义: Var ( X 1 + X 2 + ... + X n ) = E [ ( X 1 + X 2 + ... + X n − E [ X 1 + X 2 + ... + X n ] ) 2 ] \text{Var}(X_1 + X_2 + \ldots + X_n) = \mathbb{E}[(X_1 + X_2 + \ldots + X_n - \mathbb{E}[X_1 + X_2 + \ldots + X_n])^2] Var(X1+X2+...+Xn)=E[(X1+X2+...+Xn−E[X1+X2+...+Xn])2]
  3. 展开并使用独立性: = E [ ∑ i = 1 n ( X i − E [ X i ] ) 2 + ∑ i ≠ j ( X i − E [ X i ] ) ( X j − E [ X j ] ) ] = \mathbb{E}\left[\sum_{i=1}^{n}(X_i - \mathbb{E}[X_i])^2 + \sum_{i \neq j}(X_i - \mathbb{E}[X_i])(X_j - \mathbb{E}[X_j])\right] =E[∑i=1n(Xi−E[Xi])2+∑i=j(Xi−E[Xi])(Xj−E[Xj])]对于独立的随机变量,协方差项的期望值为零,因此最后的公式为: = ∑ i = 1 n Var ( X i ) = \sum_{i=1}^{n} \text{Var}(X_i) =∑i=1nVar(Xi)

2. 不独立情况下的证明

如果 X 1 , X 2 , ... , X n X_1, X_2, \ldots, X_n X1,X2,...,Xn 是不独立的随机变量,则需要考虑它们之间的协方差。

方差的计算公式为:
Var ( X 1 + X 2 + ... + X n ) = ∑ i = 1 n Var ( X i ) + ∑ i ≠ j 2 Cov ( X i , X j ) \text{Var}(X_1 + X_2 + \ldots + X_n) = \sum_{i=1}^{n} \text{Var}(X_i) + \sum_{i \neq j} 2 \text{Cov}(X_i, X_j) Var(X1+X2+...+Xn)=∑i=1nVar(Xi)+∑i=j2Cov(Xi,Xj)
证明

  1. 使用方差的定义: Var ( X 1 + X 2 + ... + X n ) = E [ ( X 1 + X 2 + ... + X n − E [ X 1 + X 2 + ... + X n ] ) 2 ] \text{Var}(X_1 + X_2 + \ldots + X_n) = \mathbb{E}[(X_1 + X_2 + \ldots + X_n - \mathbb{E}[X_1 + X_2 + \ldots + X_n])^2] Var(X1+X2+...+Xn)=E[(X1+X2+...+Xn−E[X1+X2+...+Xn])2]
  2. 展开平方: = ∑ i = 1 n E [ ( X i − E [ X i ] ) 2 ] + ∑ i ≠ j E [ ( X i − E [ X i ] ) ( X j − E [ X j ] ) ] = \sum_{i=1}^{n} \mathbb{E}[(X_i - \mathbb{E}[X_i])^2] + \sum_{i \neq j} \mathbb{E}[(X_i - \mathbb{E}[X_i])(X_j - \mathbb{E}[X_j])] =∑i=1nE[(Xi−E[Xi])2]+∑i=jE[(Xi−E[Xi])(Xj−E[Xj])]
  3. 第一项为方差,第二项为协方差的两倍和。
    最终,我们得到:
    Var ( X 1 + X 2 + ... + X n ) = ∑ i = 1 n Var ( X i ) + ∑ i ≠ j 2 Cov ( X i , X j ) \text{Var}(X_1 + X_2 + \ldots + X_n) = \sum_{i=1}^{n} \text{Var}(X_i) + \sum_{i \neq j} 2 \text{Cov}(X_i, X_j) Var(X1+X2+...+Xn)=∑i=1nVar(Xi)+∑i=j2Cov(Xi,Xj)

总结

  • 独立情况下 : Var ( X 1 + X 2 + ... + X n ) = ∑ i = 1 n Var ( X i ) \text{Var}(X_1 + X_2 + \ldots + X_n) = \sum_{i=1}^{n} \text{Var}(X_i) Var(X1+X2+...+Xn)=∑i=1nVar(Xi)
  • 不独立情况下 : Var ( X 1 + X 2 + ... + X n ) = ∑ i = 1 n Var ( X i ) + ∑ i ≠ j 2 Cov ( X i , X j ) \text{Var}(X_1 + X_2 + \ldots + X_n) = \sum_{i=1}^{n} \text{Var}(X_i) + \sum_{i \neq j} 2 \text{Cov}(X_i, X_j) Var(X1+X2+...+Xn)=∑i=1nVar(Xi)+∑i=j2Cov(Xi,Xj)
相关推荐
蹦蹦跳跳真可爱5892 小时前
Python----深度学习(基于深度学习Pytroch簇分类,圆环分类,月牙分类)
人工智能·pytorch·python·深度学习·分类
蚂蚁20143 小时前
卷积神经网络(二)
人工智能·计算机视觉
z_mazin5 小时前
反爬虫机制中的验证码识别:类型、技术难点与应对策略
人工智能·计算机视觉·目标跟踪
lixy5796 小时前
深度学习3.7 softmax回归的简洁实现
人工智能·深度学习·回归
youhebuke2256 小时前
利用deepseek快速生成甘特图
人工智能·甘特图·deepseek
訾博ZiBo6 小时前
AI日报 - 2025年04月26日
人工智能
郭不耐6 小时前
DeepSeek智能时空数据分析(三):专业级地理数据可视化赏析-《杭州市国土空间总体规划(2021-2035年)》
人工智能·信息可视化·数据分析·毕业设计·数据可视化·城市规划
AI军哥6 小时前
MySQL8的安装方法
人工智能·mysql·yolo·机器学习·deepseek
余弦的倒数7 小时前
知识蒸馏和迁移学习的区别
人工智能·机器学习·迁移学习
Allen Bright7 小时前
【机器学习-线性回归-2】理解线性回归中的连续值与离散值
人工智能·机器学习·线性回归