矩阵的 正定(Positive Definite)与负定(Negative Definite):从Fisher信息矩阵看“曲率”的秘密

矩阵的正定与负定:从Fisher信息矩阵看"曲率"的秘密

在数学和统计学中,矩阵的"正定性"和"负定性"是一对重要概念,尤其在优化、统计推断和机器学习中频繁出现。比如,Fisher信息矩阵(Fisher Information Matrix, FIM)常被描述为"正定"的,这不仅是个数学性质,还与参数估计的"曲率"密切相关。那么,什么是正定和负定?它们有什么用?今天我们就来聊聊这些问题,以Fisher信息矩阵为例,揭开矩阵性质背后的奥秘。


什么是正定和负定?

矩阵的正定性和负定性是线性代数中的概念,用来描述一个对称矩阵的"方向性"和"形状"。假设 ( A A A ) 是一个 ( n × n n \times n n×n ) 的实对称矩阵(即 ( A = A T A = A^T A=AT )),它的正定性和负定性定义如下:

正定(Positive Definite)

矩阵 ( A A A ) 是正定的,如果对于任意非零向量 ( x ∈ R n x \in \mathbb{R}^n x∈Rn )(( x ≠ 0 x \neq 0 x=0 )):

x T A x > 0 x^T A x > 0 xTAx>0

这意味着 ( A A A ) 的二次型(quadratic form)总是正的。

负定(Negative Definite)

矩阵 ( A A A ) 是负定的,如果:

x T A x < 0 x^T A x < 0 xTAx<0

即二次型总是负的。

其他情况

  • 半正定(Positive Semidefinite) :( x T A x ≥ 0 x^T A x \geq 0 xTAx≥0 ),允许等于零。
  • 半负定(Negative Semidefinite) :( x T A x ≤ 0 x^T A x \leq 0 xTAx≤0 )。
通俗比喻

想象 ( A A A ) 是一个"碗"的形状:

  • 正定:像一个"正放的碗",碗底在下,口朝天,无论从哪个方向离开碗底,高度( x T A x x^T A x xTAx)都增加,像一个凸起的谷底。凸函数(想象 x 2 x^2 x2的样子)。
  • 负定:像一个"倒扣的碗",碗底在上,口朝地,所有方向都下降,像一个凹陷的山顶。凹函数(想象 l o g x logx logx的样子)。
  • 半正定或半负定:碗可能有平坦的区域,某些方向高度不变。

如何判断正定和负定?

数学上有几种等价方法判断一个对称矩阵的性质:

  1. 特征值(Eigenvalues)

    • 正定:所有特征值 ( λ i > 0 \lambda_i > 0 λi>0 )。
    • 负定:所有特征值 ( λ i < 0 \lambda_i < 0 λi<0 )。
    • 半正定:所有特征值 ( λ i ≥ 0 \lambda_i \geq 0 λi≥0 )。
  2. 二次型

    • 检查 ( x T A x x^T A x xTAx ) 在所有非零 ( x x x ) 上的符号。
  3. 主子式(Leading Principal Minors)

    • 正定:所有主子式(从左上角逐步扩大的子矩阵的行列式)都大于零。
    • 负定:主子式符号交替(奇数阶负,偶数阶正)。
简单例子
  • ( A = [ 2 0 0 2 ] A = \begin{bmatrix} 2 & 0 \\ 0 & 2 \end{bmatrix} A=[2002] ):

    • ( x T A x = 2 x 1 2 + 2 x 2 2 > 0 x^T A x = 2x_1^2 + 2x_2^2 > 0 xTAx=2x12+2x22>0 )(除非 ( x = 0 x = 0 x=0 )),正定。
    • 特征值:2, 2,皆正。
  • ( A = [ − 1 0 0 − 1 ] A = \begin{bmatrix} -1 & 0 \\ 0 & -1 \end{bmatrix} A=[−100−1] ):

    • ( x T A x = − x 1 2 − x 2 2 < 0 x^T A x = -x_1^2 - x_2^2 < 0 xTAx=−x12−x22<0 ),负定。
    • 特征值:-1, -1,皆负。

Fisher信息矩阵的正定性

Fisher信息矩阵 ( I ( θ ) I(\theta) I(θ) ) 定义为得分函数的协方差:

I ( θ ) i j = E [ ∂ log ⁡ p ( x ∣ θ ) ∂ θ i ∂ log ⁡ p ( x ∣ θ ) ∂ θ j ∣ θ ] I(\theta)_{ij} = E\left[ \frac{\partial \log p(x|\theta)}{\partial \theta_i} \frac{\partial \log p(x|\theta)}{\partial \theta_j} \bigg| \theta \right] I(θ)ij=E[∂θi∂logp(x∣θ)∂θj∂logp(x∣θ) θ]

或者等价地:

I ( θ ) i j = − E [ ∂ 2 log ⁡ p ( x ∣ θ ) ∂ θ i ∂ θ j ∣ θ ] I(\theta)_{ij} = -E\left[ \frac{\partial^2 \log p(x|\theta)}{\partial \theta_i \partial \theta_j} \bigg| \theta \right] I(θ)ij=−E[∂θi∂θj∂2logp(x∣θ) θ]

书中常说:"如果模型是可识别的(即不同参数 ( θ \theta θ ) 对应不同分布 ( p ( x ∣ θ ) p(x|\theta) p(x∣θ) )),Fisher信息矩阵通常是正定的。"为什么?

正定的来源

  • 得分函数的协方差 :( I ( θ ) I(\theta) I(θ) ) 是协方差矩阵,而协方差矩阵天然是半正定的(( x T I x = E [ ( x T s ) 2 ] ≥ 0 x^T I x = E[(x^T s)^2] \geq 0 xTIx=E[(xTs)2]≥0 ))。
  • 可识别性 :如果模型可识别,得分函数 ( s ( θ ) = ∇ log ⁡ p s(\theta) = \nabla \log p s(θ)=∇logp ) 在不同 ( θ \theta θ ) 下变化显著,( I ( θ ) I(\theta) I(θ) ) 没有零特征值(即 ( x T I x = 0 x^T I x = 0 xTIx=0 ) 仅当 ( x = 0 x = 0 x=0 )),从而正定。
正态分布例子

对于 ( x ∼ N ( μ , σ 2 ) x \sim N(\mu, \sigma^2) x∼N(μ,σ2) ):

I ( θ ) = [ 1 σ 2 0 0 1 2 σ 4 ] I(\theta) = \begin{bmatrix} \frac{1}{\sigma^2} & 0 \\ 0 & \frac{1}{2\sigma^4} \end{bmatrix} I(θ)=[σ21002σ41]

  • 特征值:( 1 σ 2 , 1 2 σ 4 \frac{1}{\sigma^2}, \frac{1}{2\sigma^4} σ21,2σ41 ),皆正。
  • ( x T I x = x 1 2 σ 2 + x 2 2 2 σ 4 > 0 x^T I x = \frac{x_1^2}{\sigma^2} + \frac{x_2^2}{2\sigma^4} > 0 xTIx=σ2x12+2σ4x22>0 ),正定。

正定和负定的用途

正定和负定不仅是数学标签,它们在实际中有重要作用,尤其与"曲率"挂钩。

1. 曲率与优化

  • 正定:表示函数(比如负对数似然)在某点是"碗口向上"的凸函数,最优解在底部。Fisher信息矩阵正定说明似然函数局部是凸的,参数估计有唯一解。
  • 负定:表示"碗口向下",如损失函数的最大值。优化时常希望Hessian负定(如最大化似然)。

在牛顿法中,Hessian的正定性保证步长方向正确,而Fisher信息矩阵正定则为自然梯度提供稳定基础。

2. 参数估计精度

Fisher信息矩阵正定意味着它的逆 ( I ( θ ) − 1 I(\theta)^{-1} I(θ)−1 ) 存在且正定,提供了参数估计的协方差下界(Cramér-Rao界):

Cov ( θ ^ ) ≥ I ( θ ) − 1 \text{Cov}(\hat{\theta}) \geq I(\theta)^{-1} Cov(θ^)≥I(θ)−1

正定性保证协方差矩阵有效,估计精度可量化。

3. 稳定性与正交性

  • 正定矩阵的特征值全正,保证系统(如优化过程)稳定。
  • 如果 ( I i j = 0 I_{ij} = 0 Iij=0 )(参数正交),矩阵接近对角形式,正定性更易满足,简化计算。

正定性与"曲率"的联系

Fisher信息矩阵的正定性为何能衡量"参数估计的曲率"?

  • 几何意义 :( x T I x x^T I x xTIx ) 是对数似然函数在 ( θ \theta θ ) 附近曲率的期望。正定说明曲率处处向上,似然函数像一个"碗",参数估计的"底部"清晰。
  • 信息含量:曲率越大(特征值越大),似然对参数变化越敏感,数据提供的信息越多。

例如,( I μ μ = 1 σ 2 I_{\mu\mu} = \frac{1}{\sigma^2} Iμμ=σ21 ) 表明,当 ( σ 2 \sigma^2 σ2 ) 小时,曲率大,( μ \mu μ ) 的估计更精确。


总结

矩阵的正定性和负定性描述了二次型的符号和函数的形状:正定是"正放的碗",负定是"倒扣的碗"。在Fisher信息矩阵中,正定性源于模型的可识别性,保证了似然函数的局部凸性和参数估计的稳定性。它不仅衡量"曲率",还为优化和推断提供了理论支撑。下次看到正定矩阵,不妨想想:它在告诉你什么形状的故事?

补充


"碗口向上"是什么意思?

在数学和几何中,当我们说一个矩阵 ( A A A ) 是正定的,意味着它的二次型 ( x T A x x^T A x xTAx ) 对于所有非零向量 ( x x x ) 都是正的(( x T A x > 0 x^T A x > 0 xTAx>0 ))。这可以用一个碗的形状来类比,但这里的"碗"是指一个三维空间中的曲面 ,具体来说是一个抛物面椭球面

  • "碗口向上" :指的是这个曲面在原点(( x = 0 x = 0 x=0 ))处达到最小值(( x T A x = 0 x^T A x = 0 xTAx=0 )),然后随着 ( x x x ) 远离原点,曲面高度(( x T A x x^T A x xTAx ))逐渐增加。这种形状在数学上对应一个凸函数,底部在最低点,像一个正放的碗。
  • 几何图像 :想象一个普通的碗,开口朝天,底部在桌子上的形状。无论你从哪个方向(( x x x ) 的任意方向)离开中心,高度(碗的深度,或 ( x T A x x^T A x xTAx ))都上升。
举个例子

考虑正定矩阵 ( A = [ 1 0 0 1 ] A = \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix} A=[1001] ):

x T A x = x 1 2 + x 2 2 x^T A x = x_1^2 + x_2^2 xTAx=x12+x22

  • 当 ( x = [ 0 , 0 ] x = [0, 0] x=[0,0] ) 时,( x T A x = 0 x^T A x = 0 xTAx=0 )(最低点)。
  • 当 ( x = [ 1 , 0 ] x = [1, 0] x=[1,0] ) 时,( x T A x = 1 x^T A x = 1 xTAx=1 );( x = [ 0 , 2 ] x = [0, 2] x=[0,2] ) 时,( x T A x = 4 x^T A x = 4 xTAx=4 )。
  • 这是一个碗口向上的抛物面,底部在原点,向上延伸。

"碗倒扣在桌子上"

"碗倒扣在桌子上的形状",是一个很自然的联想,但它对应的是负定矩阵,而不是正定矩阵。

  • "碗口向下"(负定) :如果矩阵 ( A A A ) 是负定的,( x T A x < 0 x^T A x < 0 xTAx<0 ) 对所有非零 ( x x x ) 成立。这时,曲面在原点处是最高点(( x T A x = 0 x^T A x = 0 xTAx=0 )),向四周下降,像一个倒扣的碗,或一个"坑"。
  • 例子 :( A = [ − 1 0 0 − 1 ] A = \begin{bmatrix} -1 & 0 \\ 0 & -1 \end{bmatrix} A=[−100−1] ):
    x T A x = − x 1 2 − x 2 2 x^T A x = -x_1^2 - x_2^2 xTAx=−x12−x22
    • ( x = [ 0 , 0 ] x = [0, 0] x=[0,0] ) 时,( x T A x = 0 x^T A x = 0 xTAx=0 )(最高点)。
    • ( x = [ 1 , 0 ] x = [1, 0] x=[1,0] ) 时,( x T A x = − 1 x^T A x = -1 xTAx=−1 );( x = [ 0 , 2 ] x = [0, 2] x=[0,2] ) 时,( x T A x = − 4 x^T A x = -4 xTAx=−4 )。
    • 这是一个碗口向下的抛物面,像倒扣的碗。

为什么正定对应"碗口向上"?

在统计和优化中,正定矩阵(如Fisher信息矩阵)常用来描述凸性

  • Fisher信息矩阵 ( I ( θ ) I(\theta) I(θ) ) 正定,表示负对数似然 ( − log ⁡ p ( x ∣ θ ) -\log p(x|\theta) −logp(x∣θ) ) 在真实参数附近是"碗口向上"的凸函数,存在唯一的最优解。
  • "曲率"是指碗的陡峭程度,正定保证曲率正向(向上弯曲),便于优化和估计。

反过来,负定矩阵可能对应最大值问题(如似然函数的最大化),形状是"碗口向下"。

后记

2025年2月25日12点24分于上海,在Grok 3大模型辅助下完成。

相关推荐
奋进小青1 小时前
机器学习——需求预测+PCA+随机森林算法+shap可解释性分析+多模型性能对比
算法·随机森林·机器学习
Vacant Seat2 小时前
矩阵-旋转图像
java·数据结构·算法·矩阵
IT猿手2 小时前
智能优化算法:雪橇犬优化算法(Sled Dog Optimizer,SDO)求解23个经典函数测试集,MATLAB
开发语言·前端·人工智能·算法·机器学习·matlab
RK_Dangerous4 小时前
【机器学习】强化学习(2)——捋清深度强化学习的思路
人工智能·机器学习
亲持红叶4 小时前
sklearn中的决策树-分类树:实例-分类树在合成数据集上的表现
决策树·分类·sklearn
风雅樱6 小时前
机器学习(部分算法、模型)
深度学习·算法·机器学习
阿正的梦工坊6 小时前
Cramér-Rao界:参数估计精度的“理论底线”
机器学习·概率论
以山河作礼。8 小时前
【机器学习】13.十大算法之一K均值算法(K-means)聚类详细讲解
算法·机器学习·均值算法