【线性代数】矩阵变换

一些特殊的矩阵

一,对角矩阵

1,什么是对角矩阵

表示将矩阵进行伸缩(反射)变换,仅沿坐标轴方向伸缩(反射)变换。

2,对角矩阵可分解为多个F1矩阵,如下:

二,剪切矩阵

1,什么是剪切矩阵

2,剪切矩阵的几何意义

3,剪切矩阵的特点

变换前后面积不变

三,正交矩阵

1,什么是正交矩阵?

2,正交矩阵的特点

(1)是方阵

(2)每个列向量都是单位矩阵

(3)每对列向量都正交

(4)正交矩阵的转置等于它的逆

3,正交矩阵的几何意义

只有旋转,无剪切,无伸缩,无反射

如下图所示,矩阵A表示绕X轴旋转60°,矩阵B表示绕Z轴旋转45°,C表示先按X轴旋转60°再按Z轴旋转45°,顺序不能颠倒。

若颠倒顺序,先绕Z轴旋转,再按X轴旋转,则:

四,投影矩阵

1,什么是投影矩阵?

将高维的变换到低维

谱分解

作用对象是对称矩阵,对称矩阵的特征向量正交。

本质:将一个复杂的变换分解为:旋转-伸缩-逆旋转

Q为单位特征向量组成的矩阵,即e1,e2,e3都是单位特征向量,为特征值组成的对角矩阵。

过程解释(以2维为例):原对称矩阵S具有2个特征向量,且特征向量都正交,矩阵实现了将特征基 e1,e2旋转到原来的基 (1,0)(0,1)的过程,然后进行伸缩变换,即沿特征基的方向进行伸缩变换,最后再乘Q将特征基旋转回原来的位置。

谱分解的特殊点:

(1)对称矩阵的特征向量都正交,原来的基也是正交的,则仅进行正交变换(旋转)即可实现将特征基旋转为原来的基。

奇异值分解

奇异值分解与谱分解的区别只有,谱分解是旋转---伸缩---逆旋转,而奇异值分解是旋转---伸缩(可能有维度消除或维度扩充)---再旋转。奇异值分解的第二次旋转不是第一次旋转的逆旋转。

1,图+公式推导

待分解矩阵的变换如图,改变换将相互正交的向量 变换到仍然相互正交的向量,伸缩量为。设

,即

所以的特征向量为,特征值为

同理的特征向量为,特征值为

综上,奇异值分解中的特征向量,的特征向量。特征值的平方根。

为右奇异向量,为左奇异向量。

2,几何解释

相关推荐
.格子衫.1 小时前
真题卷001——算法备赛
算法
XiaoyaoCarter1 小时前
每日一道leetcode
c++·算法·leetcode·职场和发展·二分查找·深度优先·前缀树
Blossom.1181 小时前
使用Python实现简单的人工智能聊天机器人
开发语言·人工智能·python·低代码·数据挖掘·机器人·云计算
Hygge-star1 小时前
【数据结构】二分查找5.12
java·数据结构·程序人生·算法·学习方法
科技小E1 小时前
EasyRTC嵌入式音视频通信SDK打造带屏IPC全场景实时通信解决方案
人工智能·音视频
ayiya_Oese1 小时前
[模型部署] 3. 性能优化
人工智能·python·深度学习·神经网络·机器学习·性能优化
仙人掌_lz1 小时前
机器学习与人工智能:NLP分词与文本相似度分析
人工智能·机器学习·自然语言处理
jndingxin2 小时前
OpenCV CUDA模块中矩阵操作------归一化与变换操作
人工智能·opencv
ZStack开发者社区2 小时前
云轴科技ZStack官网上线Support AI,智能助手助力高效技术支持
人工智能·科技
每天都要写算法(努力版)2 小时前
【神经网络与深度学习】通俗易懂的介绍非凸优化问题、梯度消失、梯度爆炸、模型的收敛、模型的发散
人工智能·深度学习·神经网络