【线性代数的理解】 为什么说线性代数研究的是空间变换?旋转矩阵坐标转换矩阵

注:

  1. 在线性代数中 ,常常不把点看成是点,而是看成是一个由原点出发的向量。所以,点的坐标相当于是向量的坐标。
  2. 正方形(图中灰色图形)可以看成是由一大堆向量组成的图形,对这一堆向量进行A变换,即对正方形里面所有的向量都做一个A变换。A变换是让横坐标变为原来的2倍,纵坐标不变。
  3. A变换对应的变换是拉伸变换。
  4. 矩阵乘法就是在做一个空间变换。
  5. 矩阵的行列式的值是图像发生变换的面积的倍数,即:面积变化为原来的2倍。

注:

  1. 平面中,任何一个二维向量在被B作用后,将会逆时针旋转θ的角度(在同一个坐标系中)。这里说的是在同一个坐标系中,经过一个旋转矩阵的左乘后,点的位置发生了变化。
  2. 下面的推导是坐标转换的推导,是同一个点从一个坐标系转换到另一个坐标系下的坐标。

上面的推导有小错误,现在订正如下:

下面看矩阵乘法为何是不可交换的?

注:

1.1和2的过程,假如结果一样,就认同矩阵乘法可交换,假如结果不一样,就认为矩阵乘法不可以交换,即不满足交换律。

2.矩阵的乘法虽然没有交换律,但是有结合律,简而言之,就是满足就近原则。

注:

2.对于一个几何图形而言,先旋转后拉伸和先拉伸后旋转效果一般是不会一样的。

注:

  1. 对于二维图形来说,是面积的一个放大率。
  2. 对于三维图形来说,是体积的一个放大率。
  3. 旋转变换不会改变图形的面积,所以旋转变换放大倍率是1。
  4. 行列式的几何意义:图形左乘矩阵做空间变换前后的一个放大倍率。

空间变换的两种特殊情况:

情况1:

空间变换的矩阵中有负值:

情况2:

空间变换的行列式等于0.

注:

  1. 这个空间变换后,图像看起来像是被压扁,从二维的图像变成了一维的线了(降维)。而线段没有面积,所以放大率是0(相当于面积乘以0).
  2. 空间变换也可以把三维的物体变成二维的图像。

矩阵的可逆与不可逆:

注:

  1. 假如空间变换对于的矩阵,使得图像是在同一个维度之间发生变化的,比如二维图像的拉伸,旋转(此时的空间变换矩阵的行列式不为0,拉伸的话,行列式是一个数值,旋转的话,行列式的值的1),那么这个过程还是可以变回去的,就意味着空间变换矩阵是可逆的。
  2. 假如空间变换是让三维的图像变成了二维(此时的空间变换矩阵的行列式一定为0),或者让二维的图像变成了一维(此时的空间变换矩阵的行列式也一定为0),那么这个过程就是不可以变回去的,这意味着空间变换矩阵是不可逆的。
相关推荐
我是大聪明.2 小时前
CUDA矩阵乘法优化:共享内存分块与Warp级执行机制深度解析
人工智能·深度学习·线性代数·机器学习·矩阵
做cv的小昊8 小时前
【TJU】研究生应用统计学课程笔记(6)——第二章 参数估计(2.4 区间估计)
人工智能·笔记·线性代数·算法·机器学习·数学建模·概率论
EnCi Zheng10 小时前
02a-什么是矩阵
线性代数·矩阵
AI科技星10 小时前
《全域数学》第一部:数术本源·第二卷《算术原本》之十四附录(二)全域数学体系下三大数论猜想的本源推演与哲学阐释【乖乖数学】
人工智能·线性代数·机器学习·量子计算·agi
有为少年1 天前
从概率估计到“LLM 训练是有损压缩”
人工智能·线性代数·机器学习·计算机视觉·矩阵
风落无尘1 天前
第二章《概率与生存》完整学习资料
人工智能·矩阵·概率论
大江东去浪淘尽千古风流人物1 天前
【UV-SLAM】eLSD/LBD 数据维度 UV-SLAM吸收借鉴
数据库·线性代数·oracle·矩阵·uv·augmented reality
风落无尘1 天前
《智能重生:从垃圾堆到AI工程师》——第三章 矩阵与防线
人工智能·线性代数·矩阵
玛丽莲茼蒿1 天前
Leetcode hot100 螺旋矩阵【中等】
算法·leetcode·矩阵
个微管理2 天前
小红书新规深度拆解:从被封到破局,2026年矩阵号生存手册
大数据·人工智能·矩阵