线性代数 - 几何原理


目录


序言

欢迎阅读这篇关于线性代数的文章。在这里,我们将从一个全新的角度去探索线性代数,不再仅仅局限于数值计算,而是深入理解其背后的几何原理。我们将一起探讨向量、线性变换、矩阵、行列式、点乘、叉乘、基向量等核心概念,以及它们如何在实际问题中发挥作用。无论你是初学者,还是想要复习和加深理解,这篇文章都将为你提供清晰、深入的解析。让我们一起打开线性代数的神秘面纱,探索其丰富而美妙而美妙的世界。

向量的定义

  • 物理学:长度决定标量,加上方向决定矢量
  • 计算机:有序的数字序列,如数组
  • 数学:结合二者的概念,向量是空间中以原点为起点有方向并且有序的数字列表

线性组合、张成空间与向量基

  • 向量 i j 是 xy坐标系的基向量,是张成该空间的一个线性无关的向量集
  • 选取不同的基向量,它全部线性组合构成的向量集合被称为"张成的空间"
  • 三维向量的张成空间
  • 线性相关:一组向量至少有一个是多余的,没有对张成空间做出任何贡献
  • 线性无关:对张成空间有贡献,增加维度

线性变换和矩阵

定义:保持网格线平行并且等距分布的变换

  • 可以根据线性变化后的基向量进行计算,关系根据原有的坐标值
  • 矩阵的列看作变换后的基向量,矩阵向量乘法看作他们的线性组合,是对几何空间的一种线性变换

线性复合变换与矩阵乘法

  • 本质上还是计算基向量的最终变化

三维空间的线性变换

  • 和二维的本质一样,只是多了一个维度罢了

行列式

  • 线性变换会挤压伸缩空间,行列式就是计算给定区域相对于基向量面积增大或减小的比例
  • 行列式为负说明坐标系定向空间翻转了

矩阵的秩和逆矩阵

  • 秩代表变换空间后的维度,线性相关会减少维度
  • 行列式不为0, 还原变换后的基向量到原本定义的时候

维度变换

点乘


  • 向量u是一维空间的基向量,我们要计算二维空间的基向量经过什么线性变换到达一维空间的矩阵
  • 点乘就是将其中一个向量转换为线性变换的过程
  • 向量点乘可以判断两个向量的方向如何,是否垂直

叉乘

  • 这里的几何概念有点没懂

基变换

  • 两种坐标系如何转换,一种是自定义的基向量 i j,另一种是变换的基向量,后面假设叫珍妮弗的坐标系
  • 这张就是用基本的坐标系表达珍妮弗的坐标系
  • 用我们的标准表达出基向量,然后进行计算
  • 先变成珍妮弗的坐标,然后进行翻转,最后用珍妮弗的坐标规范定义我们的坐标格式

特征值和特征向量

  • 向量(特征向量)在进行线性变换时,没有离开它所在的张成空间,只是缩放了一定倍数(特征值 )
  • 空间维度就是经过(A - I)变换后,会落在零空间。这就要求维度必须降维,行列式为0
  • 特殊情况:基向量默认是特征向量

抽象向量空间

  • 向量可以是任何的事物,只需要满足线性的严格定义和数学家规范的准则就行了

任何具有普适性的理论都会变得抽象

相关推荐
xinyaokeji16 分钟前
认准高精度:基恩士 VL 扫描仪为三维测量优选之选
大数据·人工智能
mubei-12316 分钟前
万字RAG综述:大语言模型的检索增强生成
人工智能·llm·rag·检索增强生成
昵称已被吞噬~‘(*@﹏@*)’~16 分钟前
【强化学习】MacOS (M1芯片)上最新版本 MuJoCo 通用安装教程(最简洁),PS:不是 mujoco_py 的老版本
python·macos·机器学习·强化学习·mujoco
Java中文社群20 分钟前
国内直连GPT、Claude和Gemini?N8N这次更新真的绝了!
人工智能·后端
小真zzz25 分钟前
Nano Banana Pro 深度解析与 AI PPT 工具全面评测报告
人工智能·ai·powerpoint·ppt·chatppt·banana pro
BoBoZz1929 分钟前
ColorEdges 动态有向图的动态渲染
python·vtk·图形渲染·图形处理
半空扫地僧一枚36 分钟前
D02期:档位切换
人工智能
风雨中的小七38 分钟前
解密Prompt系列67. 智能体的经济学:从架构选型到工具预算
人工智能·llm
Deepoch41 分钟前
智能硬件新纪元:Deepoc开发板如何重塑清洁机器人的“认知内核“
人工智能·清洁机器人·具身模型·deepoc