线性代数 - 几何原理


目录


序言

欢迎阅读这篇关于线性代数的文章。在这里,我们将从一个全新的角度去探索线性代数,不再仅仅局限于数值计算,而是深入理解其背后的几何原理。我们将一起探讨向量、线性变换、矩阵、行列式、点乘、叉乘、基向量等核心概念,以及它们如何在实际问题中发挥作用。无论你是初学者,还是想要复习和加深理解,这篇文章都将为你提供清晰、深入的解析。让我们一起打开线性代数的神秘面纱,探索其丰富而美妙而美妙的世界。

向量的定义

  • 物理学:长度决定标量,加上方向决定矢量
  • 计算机:有序的数字序列,如数组
  • 数学:结合二者的概念,向量是空间中以原点为起点有方向并且有序的数字列表

线性组合、张成空间与向量基

  • 向量 i j 是 xy坐标系的基向量,是张成该空间的一个线性无关的向量集
  • 选取不同的基向量,它全部线性组合构成的向量集合被称为"张成的空间"
  • 三维向量的张成空间
  • 线性相关:一组向量至少有一个是多余的,没有对张成空间做出任何贡献
  • 线性无关:对张成空间有贡献,增加维度

线性变换和矩阵

定义:保持网格线平行并且等距分布的变换

  • 可以根据线性变化后的基向量进行计算,关系根据原有的坐标值
  • 矩阵的列看作变换后的基向量,矩阵向量乘法看作他们的线性组合,是对几何空间的一种线性变换

线性复合变换与矩阵乘法

  • 本质上还是计算基向量的最终变化

三维空间的线性变换

  • 和二维的本质一样,只是多了一个维度罢了

行列式

  • 线性变换会挤压伸缩空间,行列式就是计算给定区域相对于基向量面积增大或减小的比例
  • 行列式为负说明坐标系定向空间翻转了

矩阵的秩和逆矩阵

  • 秩代表变换空间后的维度,线性相关会减少维度
  • 行列式不为0, 还原变换后的基向量到原本定义的时候

维度变换

点乘


  • 向量u是一维空间的基向量,我们要计算二维空间的基向量经过什么线性变换到达一维空间的矩阵
  • 点乘就是将其中一个向量转换为线性变换的过程
  • 向量点乘可以判断两个向量的方向如何,是否垂直

叉乘

  • 这里的几何概念有点没懂

基变换

  • 两种坐标系如何转换,一种是自定义的基向量 i j,另一种是变换的基向量,后面假设叫珍妮弗的坐标系
  • 这张就是用基本的坐标系表达珍妮弗的坐标系
  • 用我们的标准表达出基向量,然后进行计算
  • 先变成珍妮弗的坐标,然后进行翻转,最后用珍妮弗的坐标规范定义我们的坐标格式

特征值和特征向量

  • 向量(特征向量)在进行线性变换时,没有离开它所在的张成空间,只是缩放了一定倍数(特征值 )
  • 空间维度就是经过(A - I)变换后,会落在零空间。这就要求维度必须降维,行列式为0
  • 特殊情况:基向量默认是特征向量

抽象向量空间

  • 向量可以是任何的事物,只需要满足线性的严格定义和数学家规范的准则就行了

任何具有普适性的理论都会变得抽象

相关推荐
小于小于大橙子3 小时前
视觉SLAM数学基础
人工智能·数码相机·自动化·自动驾驶·几何学
封步宇AIGC4 小时前
量化交易系统开发-实时行情自动化交易-3.4.2.Okex行情交易数据
人工智能·python·机器学习·数据挖掘
封步宇AIGC4 小时前
量化交易系统开发-实时行情自动化交易-2.技术栈
人工智能·python·机器学习·数据挖掘
景鹤5 小时前
【算法】递归+回溯+剪枝:78.子集
算法·机器学习·剪枝
陌上阳光5 小时前
动手学深度学习68 Transformer
人工智能·深度学习·transformer
OpenI启智社区5 小时前
共筑开源技术新篇章 | 2024 CCF中国开源大会盛大开幕
人工智能·开源·ccf中国开源大会·大湾区
AI服务老曹5 小时前
建立更及时、更有效的安全生产优化提升策略的智慧油站开源了
大数据·人工智能·物联网·开源·音视频
YRr YRr5 小时前
PyTorch:torchvision中的dataset的使用
人工智能
love_and_hope5 小时前
Pytorch学习--神经网络--完整的模型训练套路
人工智能·pytorch·python·深度学习·神经网络·学习
思通数据6 小时前
AI与OCR:数字档案馆图像扫描与文字识别技术实现与项目案例
大数据·人工智能·目标检测·计算机视觉·自然语言处理·数据挖掘·ocr