神经网络之协方差

1️⃣ 协方差的定义

概念

协方差(Covariance)衡量 两个随机变量的线性关系强弱和方向

  • 对随机变量 (X)(X)(X) 和 (Y)(Y)(Y):
    cov(X,Y)=E[(X−E[X])⋅(Y−E[Y])] \text{cov}(X, Y) = \mathbb{E}[(X - \mathbb{E}[X]) \cdot (Y - \mathbb{E}[Y])] cov(X,Y)=E[(X−E[X])⋅(Y−E[Y])]

  • 对样本数据 ((X1,Y1),...,(Xn,Yn))((X_1, Y_1), \dots, (X_n, Y_n))((X1,Y1),...,(Xn,Yn)):
    cov(X,Y)=1n−1∑i=1n(Xi−Xˉ)(Yi−Yˉ) \text{cov}(X, Y) = \frac{1}{n-1} \sum_{i=1}^{n} (X_i - \bar{X})(Y_i - \bar{Y}) cov(X,Y)=n−11i=1∑n(Xi−Xˉ)(Yi−Yˉ)

⚡ 核心思想:测量两个变量"共同偏离均值的程度"。


2️⃣ 协方差的理论基础

(1) 概率论视角

  • 协方差是两个变量 偏离自身均值的乘积的期望
  • 如果 (X)(X)(X) 和 (Y)(Y)(Y) 同方向波动 → 协方差为正
  • 如果 (X)(X)(X) 和 (Y)(Y)(Y) 反方向波动 → 协方差为负
  • 协方差为零 → 两变量无线性关系(可能非线性相关)

cov(X,Y)=E[(X−E[X])(Y−E[Y])] \text{cov}(X,Y) = \mathbb{E}[(X-\mathbb{E}[X])(Y-\mathbb{E}[Y])] cov(X,Y)=E[(X−E[X])(Y−E[Y])]

(2) 线性代数视角

  • 将样本看作向量 (X,Y)(\mathbf{X}, \mathbf{Y})(X,Y)
    X=(X1,...,Xn),Y=(Y1,...,Yn) \mathbf{X} = (X_1, ..., X_n), \quad \mathbf{Y} = (Y_1, ..., Y_n) X=(X1,...,Xn),Y=(Y1,...,Yn)

  • 中心化向量:
    Xc=X−Xˉ1,Yc=Y−Yˉ1 \mathbf{X}_c = \mathbf{X} - \bar{X}\mathbf{1},\quad \mathbf{Y}_c = \mathbf{Y} - \bar{Y}\mathbf{1} Xc=X−Xˉ1,Yc=Y−Yˉ1

  • 协方差可写为 向量内积形式
    cov(X,Y)=1n−1Xc⊤Yc \text{cov}(X,Y) = \frac{1}{n-1} \mathbf{X}_c^\top \mathbf{Y}_c cov(X,Y)=n−11Xc⊤Yc

  • 几何意义:

    • 内积大 → 方向相似 → 正相关
    • 内积负 → 方向相反 → 负相关
    • 内积为零 → 向量正交 → 无线性关系

3️⃣ 协方差的性质

  1. 对称性
    cov(X,Y)=cov(Y,X) \text{cov}(X,Y) = \text{cov}(Y,X) cov(X,Y)=cov(Y,X)

  2. 方差是特殊情况
    var(X)=cov(X,X)≥0 \text{var}(X) = \text{cov}(X,X) \ge 0 var(X)=cov(X,X)≥0

  3. 线性关系
    cov(aX+b,Y)=a⋅cov(X,Y) \text{cov}(aX+b, Y) = a \cdot \text{cov}(X,Y) cov(aX+b,Y)=a⋅cov(X,Y)
    cov(X,aY+b)=a⋅cov(X,Y) \text{cov}(X, aY+b) = a \cdot \text{cov}(X,Y) cov(X,aY+b)=a⋅cov(X,Y)

  4. 协方差为零 ≠ 独立

  • 协方差为零只说明无线性关系
  • 非线性关系仍可能存在

4️⃣ 协方差矩阵(多维扩展)

  • 对 (d)(d)(d) 维随机变量 (X=[X1,...,Xd]⊤)(\mathbf{X} = [X_1, ..., X_d]^\top)(X=[X1,...,Xd]⊤):
    Σ=Cov(X)=[cov(X1,X1)...cov(X1,Xd) ⋮⋱⋮ cov(Xd,X1)...cov(Xd,Xd)] \Sigma = \text{Cov}(\mathbf{X}) = \begin{bmatrix} \text{cov}(X_1,X_1) & ... & \text{cov}(X_1,X_d)\ \vdots & \ddots & \vdots \ \text{cov}(X_d,X_1) & ... & \text{cov}(X_d,X_d) \end{bmatrix} Σ=Cov(X)=[cov(X1,X1)...cov(X1,Xd) ⋮⋱⋮ cov(Xd,X1)...cov(Xd,Xd)]

  • 性质

    • 对称半正定矩阵
    • 可进行特征分解 → PCA、降维、马氏距离等

5️⃣ 协方差的应用场景

场景 用途
金融投资 股票收益协方差 → 投资组合风险管理、资产配置
统计分析 回归分析、相关性分析、线性关系度量
机器学习 特征选择、协方差矩阵用于PCA降维
时间序列 自协方差、交叉协方差 → 滞后关系分析、预测
信号处理 测量信号同步性、滤波、去噪

6️⃣ 协方差与相关系数的关系

  • 协方差单位依赖,不便直接比较
  • 通过标准化得到皮尔逊相关系数:
    rXY=cov(X,Y)σXσY∈[−1,1] r_{XY} = \frac{\text{cov}(X,Y)}{\sigma_X \sigma_Y} \in [-1,1] rXY=σXσYcov(X,Y)∈[−1,1]

💡 直观理解

  • 协方差 = "两个变量波动方向的平均内积"
  • 正 → 同方向波动
  • 负 → 反方向波动
  • 0 → 没有线性关系
相关推荐
文火冰糖的硅基工坊3 小时前
[人工智能-大模型-115]:模型层 - 用通俗易懂的语言,阐述神经网络为啥需要多层
人工智能·深度学习·神经网络
whaosoft-1433 小时前
51c深度学习~合集12
人工智能
minhuan3 小时前
构建AI智能体:八十、SVD知识整理与降维:从数据混沌到语义秩序的智能转换
人工智能·奇异值分解·svd降维·svd知识整理
xier_ran3 小时前
关键词解释:点积(Dot Product)在深度学习中的意义
人工智能·深度学习
GAOJ_K3 小时前
同步带模组同步带老化断裂如何更换?
人工智能·科技·自动化·制造
烟锁池塘柳04 小时前
【已解决】解决CondaVerificationError:PyTorch安装包损坏问题
人工智能·pytorch·python
互联科技报4 小时前
2025年外贸管理软件排行榜
人工智能
九河云4 小时前
华为云 Flexus 对象存储:高可靠低成本双引擎,筑牢企业数据根基
服务器·网络·人工智能·科技·华为云
飞哥数智坊4 小时前
AI时代,Know-what比Know-how更重要
人工智能