矩阵的对称,反对称分解

文章目录

一、反对称矩阵

反对称矩阵(Skew-symmetric matrix) ,又称反自伴矩阵 ,是一种特殊的方阵。它的定义是矩阵 A 等于它的负转置 ,即 A T = − A A^T=−A AT=−A。

有着如下性质:

  1. 对角线元素全为0
    • Aii = -Aii => Aii = 0
  2. 反对称矩阵取转置后仍为反对称矩阵;反对称矩阵的和仍为反对称矩阵
  3. 反对称矩阵的特征值要么是0,要么是纯虚数,并且以共轭对的形式出现
  4. 奇数阶反对称矩阵的行列式为零
    • 因为 d e t ( A ) = ( − 1 ) n d e t ( A ) = − d e t ( A ) = > d e t ( A ) = 0 因为 det(A) = (-1)^{n}det(A) = -det(A) => det(A) = 0 因为det(A)=(−1)ndet(A)=−det(A)=>det(A)=0
  5. 偶数阶反对称矩阵的行列式可能不为0
  6. 二次型恒为0
    • x T A x = ( x A T x ) T = − x T A x = > x T A x = 0 x^TAx = (xA^Tx)^T = -x^TAx => x^TAx = 0 xTAx=(xATx)T=−xTAx=>xTAx=0

二、实对称矩阵的二次型

2.1 特征向量的正交性

设 A 是一个 n×n 的方阵。若 λ 是 A 的一个特征值,其对应的特征向量为 x;μ 是 A 的另一个特征值,其对应的特征向量为 y。如果 λ != μ,则向量 x 和 y 相互正交,即它们的內积(点积)为0。

证明:
A x = λ x , A y = μ y A x = λ x y T ( A x ) = y T ( λ x ) ( A y ) T x = λ ( y T x ) μ y T x = λ y T x 因为 λ ≠ μ , 故 y T x = 0 ,证毕 \begin{align} & Ax = \lambda x, Ay = \mu y\\ & Ax = \lambda x\\ & y^T (Ax) = y^T (\lambda x)\\ & (Ay)^T x = \lambda(y^Tx)\\ & \mu y^Tx = \lambda y^Tx\\ & 因为 \lambda \neq \mu, 故 y^Tx = 0,证毕 \end{align} Ax=λx,Ay=μyAx=λxyT(Ax)=yT(λx)(Ay)Tx=λ(yTx)μyTx=λyTx因为λ=μ,故yTx=0,证毕

2.2 施密特正交化

不同特征值的特征向量相互正交,那么如果一个特征值的几何重数大于1,那么我们是否可以选取出一些相互正交的特征向量呢?

显然是可以的,从该特征值的特征向量张成的特征空间中取出一组正交基即可。

具体求法可以先解出任意几个不相关的特征向量,然后做施密特正交化,这里略。

也就是说,对于实对称矩阵我们可以选出一组两两相互正交的特征向量。

2.3 二次型

因为实对称矩阵可以得到n个线性无关两两正交的特征向量,那么我们对特征向量再进一步单位化,就可以将二次型转换为标准型。

二、非对称矩阵的二次型

2.1 分解定理

如何研究非对称矩阵的二次型呢?

事实上,任意 n 阶方阵 A ∈ R n × n A \in \mathbb{R}^{n \times n} A∈Rn×n 都可以唯一地分解为一个对称矩阵和一个反对称矩阵的和:
A = S + K 其中 : 对称部分: S = 1 2 ( A + A T ) , S = S T 对称部分: K = 1 2 ( A − A T ) , K = − K T 显然成立,不做证明 \begin{align} & A = S + K\\ & 其中:\\ &对称部分:S = \frac{1}{2}(A+A^T), S = S^T\\ &对称部分:K = \frac{1}{2}(A-A^T), K = -K^T\\ & 显然成立,不做证明 \end{align} A=S+K其中:对称部分:S=21(A+AT),S=ST对称部分:K=21(A−AT),K=−KT显然成立,不做证明

  • 有趣的是,任意一个函数f(x) 都可以分解为一个奇函数和一个偶函数之和,形式类似。

性质

  1. 分解是唯一的
    • 证明:若 A = S1 + K1 = S2 + K2,则S1 - S2 = K2 - K1,左边对称,右边反对称,两边既是对称又是反对称,那么两边都是0

2.2 二次型

一、中已经介绍反对称矩阵的二次型恒为0,那么我们发现非对称矩阵的二次型仅取决于其分解的对称部分,研究方法和二、中的内容类似。

相关推荐
懒麻蛇10 小时前
从矩阵相关到矩阵回归:曼特尔检验与 MRQAP
人工智能·线性代数·矩阵·数据挖掘·回归
ChoSeitaku1 天前
线代强化NO20|矩阵的相似与相似对角化|综合运用
线性代数·机器学习·矩阵
西西弗Sisyphus1 天前
矩阵的左乘和右乘有什么区别
线性代数·矩阵
西西弗Sisyphus1 天前
满秩分解是怎么把矩阵分解成了两个满秩的矩阵
线性代数·矩阵·初等矩阵·满秩分解
AI科技星1 天前
为什么宇宙无限大?
开发语言·数据结构·经验分享·线性代数·算法
西西弗Sisyphus1 天前
线性代数 - 解空间
线性代数·解空间
ChoSeitaku2 天前
线代强化NO19|矩阵的相似与相似对角化
python·线性代数·矩阵
ChoSeitaku2 天前
线代强化NO18|矩阵的相似与相似对角化|概念|性质|判定|矩阵相似
线性代数·矩阵
Hcoco_me2 天前
大模型面试题3:如何计算exp(A) ,其中A为一个矩阵。
线性代数·矩阵
做怪小疯子3 天前
LeetCode 热题 100——矩阵——旋转图像
算法·leetcode·矩阵