矩阵的对角化&特征值分解

矩阵对角化和特征值分解实际上描述的是同一个过程的不同方面。矩阵对角化 强调的是通过相似变换将矩阵 A A A转化为对角矩阵 D D D。特征值分解 强调的是如何通过矩阵的特征值和特征向量来实现这种对角化。

矩阵对角化

矩阵对角化是指将一个方阵 A A A通过相似变换转化为一个对角矩阵 D D D的过程。具体来说,如果存在一个可逆矩阵 P P P和一个对角矩阵 D D D,使得:

P − 1 A P = D P^{-1}AP = D P−1AP=D

或者等价地,

A = P D P − 1 A = PDP^{-1} A=PDP−1

这里:

  • P P P是一个由 A A A的特征向量组成的矩阵。
  • D D D是一个对角矩阵,其对角线上的元素是 A A A的特征值。

特征值分解

特征值与特征向量

对于一个 n × n n \times n n×n的方阵 A A A,如果存在一个标量 λ \lambda λ和一个非零向量 v v v,使得:

A v = λ v A v = \lambda v Av=λv

那么 λ \lambda λ称为 A A A的一个特征值,而 v v v称为对应的特征向量。特征值和特征向量揭示了矩阵 A A A在某些方向上的线性变换特性。

特征值分解

特征值分解(Eigenvalue Decomposition)是矩阵对角化的一种特殊形式。它强调的是将矩阵 A A A分解为其特征值和特征向量的过程。具体来说,特征值分解可以表示为:

A = P D P − 1 A = PDP^{-1} A=PDP−1

其中:

  • P P P是特征向量矩阵,其列向量是 A A A的特征向量。
  • D D D是对角矩阵,其对角线上的元素是 A A A的特征值。

需要注意的是,并不是所有的矩阵都能被对角化。一个矩阵能被对角化的充分必要条件是它有 n n n个线性独立的特征向量。如果一个矩阵没有足够的线性独立的特征向量,那么它不能被对角化,但可以通过其他方法(如 Jordan 标准形)进行近似对角化。

例子

假设有一个 2 × 2 2 \times 2 2×2的矩阵 A A A:

A = ( 4 1 2 3 ) A = \begin{pmatrix} 4 & 1 \\ 2 & 3 \end{pmatrix} A=(4213)

我们可以通过求解特征值和特征向量来对其进行对角化或特征值分解。

  1. 求特征值

    解特征多项式 det ⁡ ( A − λ I ) = 0 \det(A - \lambda I) = 0 det(A−λI)=0:
    det ⁡ ( 4 − λ 1 2 3 − λ ) = ( 4 − λ ) ( 3 − λ ) − 2 = λ 2 − 7 λ + 10 = 0 \det \begin{pmatrix} 4 - \lambda & 1 \\ 2 & 3 - \lambda \end{pmatrix} = (4 - \lambda)(3 - \lambda) - 2 = \lambda^2 - 7\lambda + 10 = 0 det(4−λ213−λ)=(4−λ)(3−λ)−2=λ2−7λ+10=0

    解得特征值 λ 1 = 2 \lambda_1 = 2 λ1=2和 λ 2 = 5 \lambda_2 = 5 λ2=5。

  2. 求特征向量

    • 对于 λ 1 = 2 \lambda_1 = 2 λ1=2:
      ( A − 2 I ) v 1 = 0    ⟹    ( 2 1 2 1 ) ( x y ) = 0 (A - 2I)v_1 = 0 \implies \begin{pmatrix} 2 & 1 \\ 2 & 1 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} = 0 (A−2I)v1=0⟹(2211)(xy)=0

      解得特征向量 v 1 = ( 1 − 2 ) v_1 = \begin{pmatrix} 1 \\ -2 \end{pmatrix} v1=(1−2)。

    • 对于 λ 2 = 5 \lambda_2 = 5 λ2=5:
      ( A − 5 I ) v 2 = 0    ⟹    ( − 1 1 2 − 2 ) ( x y ) = 0 (A - 5I)v_2 = 0 \implies \begin{pmatrix} -1 & 1 \\ 2 & -2 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} = 0 (A−5I)v2=0⟹(−121−2)(xy)=0

      解得特征向量 v 2 = ( 1 1 ) v_2 = \begin{pmatrix} 1 \\ 1 \end{pmatrix} v2=(11)。

  3. 构造矩阵 P P P和 D D D
    P = ( 1 1 − 2 1 ) , D = ( 2 0 0 5 ) P = \begin{pmatrix} 1 & 1 \\ -2 & 1 \end{pmatrix}, \quad D = \begin{pmatrix} 2 & 0 \\ 0 & 5 \end{pmatrix} P=(1−211),D=(2005)

  4. 验证
    P − 1 = 1 3 ( 1 − 1 2 1 ) P^{-1} = \frac{1}{3} \begin{pmatrix} 1 & -1 \\ 2 & 1 \end{pmatrix} P−1=31(12−11)
    P − 1 A P = 1 3 ( 1 − 1 2 1 ) ( 4 1 2 3 ) ( 1 1 − 2 1 ) = ( 2 0 0 5 ) = D P^{-1}AP = \frac{1}{3} \begin{pmatrix} 1 & -1 \\ 2 & 1 \end{pmatrix} \begin{pmatrix} 4 & 1 \\ 2 & 3 \end{pmatrix} \begin{pmatrix} 1 & 1 \\ -2 & 1 \end{pmatrix} = \begin{pmatrix} 2 & 0 \\ 0 & 5 \end{pmatrix} = D P−1AP=31(12−11)(4213)(1−211)=(2005)=D

相关推荐
试剂界的爱马仕16 分钟前
TCA 循环中间体如何改写肝损伤命运【AbMole】
大数据·人工智能·科技·机器学习·ai写作
Y31742935 分钟前
python Day46 学习(日志Day15复习)
python·学习·机器学习
殇者知忧8 小时前
【论文笔记】若干矿井粉尘检测算法概述
深度学习·神经网络·算法·随机森林·机器学习·支持向量机·计算机视觉
YunTM9 小时前
贝叶斯优化+LSTM+时序预测=Nature子刊!
人工智能·机器学习
时间之里10 小时前
【图像处理3D】:焦距的像素单位标定
图像处理·数码相机·3d
老胖闲聊13 小时前
Python Rio 【图像处理】库简介
开发语言·图像处理·python
黑鹿02216 小时前
机器学习基础(四) 决策树
人工智能·决策树·机器学习
molunnnn17 小时前
day 18进行聚类,进而推断出每个簇的实际含义
机器学习·数据挖掘·聚类
Humbunklung17 小时前
机器学习算法分类
算法·机器学习·分类
郄堃Deep Traffic19 小时前
机器学习+城市规划第十三期:XGBoost的地理加权改进,利用树模型实现更精准的地理加权回归
人工智能·机器学习·回归·城市规划