运用谱分解定理反求实对称矩阵

文章目录

谱分解定理

设三阶实对称矩阵 A A A,若矩阵 A A A 的特征值为 λ 1 , λ 2 , λ 3 \lambda_1,\lambda_2,\lambda_3 λ1,λ2,λ3,对应的单位化 特征向量分别为 α 1 , α 2 , α 3 \alpha_1,\alpha_2,\alpha_3 α1,α2,α3 且两两正交 ,则 A = λ 1 α 1 α 1 T + λ 2 α 2 α 2 T + λ 3 α 3 α 3 T A = \lambda_1 \alpha_1 \alpha_1^{\mathrm{T}} + \lambda_2 \alpha_2 \alpha_2^{\mathrm{T}} + \lambda_3 \alpha_3 \alpha_3^{\mathrm{T}} A=λ1α1α1T+λ2α2α2T+λ3α3α3T。

【注 1】在考研范围内,只适用于实对称矩阵。

【注 2】特征向量必须两两正交且单位化!

证明 :三阶实对称矩阵 A A A 可相似对角化,存在正交矩阵 Q = ( α 1 , α 2 , α 3 ) Q=(\alpha_1,\alpha_2,\alpha_3) Q=(α1,α2,α3),使得 Q T A Q = Λ = [ λ 1 λ 2 λ 3 ] Q^{\mathrm{T}}AQ = \Lambda = \begin{bmatrix} \lambda_1 & & \\ & \lambda_2 & \\ & & \lambda_3 \end{bmatrix} QTAQ=Λ= λ1λ2λ3 。

所以有: A = ( α 1 , α 2 , α 3 ) [ λ 1 λ 2 λ 3 ] [ α 1 T α 2 T α 3 T ] = λ 1 α 1 α 1 T + λ 2 α 2 α 2 T + λ 3 α 3 α 3 T A = (\alpha_1,\alpha_2,\alpha_3) \begin{bmatrix} \lambda_1 & & \\ & \lambda_2 & \\ & & \lambda_3 \end{bmatrix} \begin{bmatrix} \alpha_1^{\mathrm{T}} \\ \alpha_2^{\mathrm{T}} \\ \alpha_3^{\mathrm{T}} \end{bmatrix} = \lambda_1 \alpha_1 \alpha_1^{\mathrm{T}} + \lambda_2 \alpha_2 \alpha_2^{\mathrm{T}} + \lambda_3 \alpha_3 \alpha_3^{\mathrm{T}} A=(α1,α2,α3) λ1λ2λ3 α1Tα2Tα3T =λ1α1α1T+λ2α2α2T+λ3α3α3T。

定理的运用

什么时候运用谱分解定理最方便?

(1)当特征值出现 0 0 0 时,运用定理可减少计算量(参见解法一);

(2)当特征值出现二重根 k k k 时,可先运用定理计算出具体的 A − k E A-kE A−kE,再算出实对称矩阵 A A A(参见解法二);

(3)运用该定理甚至不需要求出所有的特征向量!

【例】设 3 3 3 阶实对称矩阵 A A A 的秩为 2 2 2, λ 1 = λ 2 = 6 \lambda_1=\lambda_2=6 λ1=λ2=6 是 A A A 的二重特征值,若 α 1 = ( 1 , 1 , 0 ) T , α 2 = ( 2 , 1 , 1 ) T , α 3 = ( − 1 , 2 , − 3 ) T \alpha_1=(1,1,0)^{\mathrm{T}},\alpha_2=(2,1,1)^{\mathrm{T}},\alpha_3=(-1,2,-3)^{\mathrm{T}} α1=(1,1,0)T,α2=(2,1,1)T,α3=(−1,2,−3)T,都是 A A A 属于特征值 6 6 6 的特征向量,求矩阵 A A A。

【解法一】由 r ( A ) = 2 r(A)=2 r(A)=2 可得特征值 λ 1 = λ 2 = 6 , λ 3 = 0 \lambda_1=\lambda_2=6, \lambda_3=0 λ1=λ2=6,λ3=0,将 α 1 = ( 1 , 1 , 0 ) T , α 2 = ( 2 , 1 , 1 ) T \alpha_1=(1,1,0)^{\mathrm{T}},\alpha_2=(2,1,1)^{\mathrm{T}} α1=(1,1,0)T,α2=(2,1,1)T 进行单位正交化得: ξ 1 = 1 2 ( 1 , 1 , 0 ) T , ξ 2 = 1 6 ( 1 , − 1 , 2 ) T \xi_1 = \frac{1}{\sqrt{2}} (1,1,0)^{\mathrm{T}},\xi_2 = \frac{1}{\sqrt{6}}(1,-1,2)^{\mathrm{T}} ξ1=2 1(1,1,0)T,ξ2=6 1(1,−1,2)T。

运用谱分解定理:

A = λ 1 ξ 1 ξ 1 T + λ 2 ξ 2 ξ 2 T = 3 ξ 1 ξ 1 T + ξ 2 ξ 2 T = 3 [ 1 1 0 ] ( 1 , 1 , 0 ) + [ 1 − 1 2 ] ( 1 , − 1 , 2 ) = [ 4 2 2 2 4 − 2 2 − 2 4 ] \begin{aligned} A &= \lambda_1 \xi_1 \xi_1^{\mathrm{T}} + \lambda_2 \xi_2 \xi_2^{\mathrm{T}} \\ &= 3 \xi_1 \xi_1^{\mathrm{T}} + \xi_2 \xi_2^{\mathrm{T}} \\ &= 3 \begin{bmatrix} 1 \\ 1 \\ 0 \end{bmatrix} (1,1,0) + \begin{bmatrix} 1 \\ -1 \\ 2 \end{bmatrix} (1,-1,2) \\ &= \begin{bmatrix} 4 & 2 & 2 \\ 2 & 4 & -2 \\ 2 & -2 & 4 \end{bmatrix} \end{aligned} A=λ1ξ1ξ1T+λ2ξ2ξ2T=3ξ1ξ1T+ξ2ξ2T=3 110 (1,1,0)+ 1−12 (1,−1,2)= 42224−22−24

【解法二】先求出 A A A 的另一特征值和对应的特征向量 λ 3 = 0 , α 3 = ( − 1 , 1 , 1 ) T \lambda_3=0,\alpha_3=(-1,1,1)^{\mathrm{T}} λ3=0,α3=(−1,1,1)T,进行单位正交化: ξ 3 = 1 3 ( − 1 , 1 , 1 ) T \xi_3=\frac{1}{\sqrt{3}}(-1,1,1)^{\mathrm{T}} ξ3=3 1(−1,1,1)T。

由于 A A A 的特征值为 λ 1 = λ 2 = 6 , λ 3 = 0 \lambda_1=\lambda_2=6, \lambda_3=0 λ1=λ2=6,λ3=0,所以 A − 6 E A-6E A−6E 的特征值为 λ 1 = λ 2 = 0 , λ 3 = − 6 \lambda_1=\lambda_2=0, \lambda_3=-6 λ1=λ2=0,λ3=−6,注意到其对应的特征向量仍然不变,因此可以先求出 A − 6 E A-6E A−6E,运用谱分解定理:

A − 6 E = λ 3 ξ 3 ξ 3 T = − 2 [ − 1 1 1 ] ( − 1 , 1 , 1 ) = [ − 2 2 2 2 − 2 − 2 2 − 2 − 2 ] \begin{aligned} A-6E &= \lambda_3 \xi_3 \xi_3^{\mathrm{T}} \\ &= -2 \begin{bmatrix} -1 \\ 1 \\ 1 \end{bmatrix} (-1,1,1) \\ &= \begin{bmatrix} -2 & 2 & 2 \\ 2 & -2 & -2 \\ 2 & -2 & -2 \end{bmatrix} \end{aligned} A−6E=λ3ξ3ξ3T=−2 −111 (−1,1,1)= −2222−2−22−2−2

所以有:

A = ( A − 6 E ) + 6 E = [ − 2 2 2 2 − 2 − 2 2 − 2 − 2 ] + [ 6 6 6 ] = [ 4 2 2 2 4 − 2 2 − 2 4 ] \begin{aligned} A &= (A-6E) + 6E \\ &= \begin{bmatrix} -2 & 2 & 2 \\ 2 & -2 & -2 \\ 2 & -2 & -2 \end{bmatrix} + \begin{bmatrix} 6 & & \\ & 6 & \\ & & 6 \end{bmatrix} \\ &= \begin{bmatrix} 4 & 2 & 2 \\ 2 & 4 & -2 \\ 2 & -2 & 4 \end{bmatrix} \end{aligned} A=(A−6E)+6E= −2222−2−22−2−2 + 666 = 42224−22−24

相关推荐
MarkHD9 小时前
第十一天 线性代数基础
线性代数·决策树·机器学习
星沁城13 小时前
240. 搜索二维矩阵 II
java·线性代数·算法·leetcode·矩阵
Researcher-Du14 小时前
随机采样之接受拒绝采样
概率论
幼儿园园霸柒柒1 天前
第七章: 7.3求一个3*3的整型矩阵对角线元素之和
c语言·c++·算法·矩阵·c#·1024程序员节
星沁城1 天前
73. 矩阵置零
java·算法·矩阵
无水先生2 天前
ML 系列:机器学习和深度学习的深层次总结( 19)— PMF、PDF、平均值、方差、标准差
概率论
无水先生2 天前
ML 系列:机器学习和深度学习的深层次总结( 20)— 离散概率分布 (Bernoulli 分布)
概率论
jndingxin2 天前
OpenCV视觉分析之目标跟踪(11)计算两个图像之间的最佳变换矩阵函数findTransformECC的使用
opencv·目标跟踪·矩阵
卡洛驰2 天前
交叉熵损失函数详解
人工智能·深度学习·算法·机器学习·ai·分类·概率论
pen-ai2 天前
【机器学习】21. Transformer: 最通俗易懂讲解
人工智能·神经网络·机器学习·矩阵·数据挖掘