线性代数的本质 2 线性组合、张成的空间、基

基于3Blue1Brown视频的笔记


一种新的看待方式

对于一个向量,比如说,如何看待其中的3和-2?

一开始,我们往往将其看作长度(从向量的首走到尾部,分别在x和y上走的长度)。

在有了数乘后,我们可以将其视为对向量进行缩放的标量,缩放的对象是两个特殊的向量 这两个向量也被称为xy坐标系的基向量。

也就是有:

这种把向量看作向量的数乘的和的思想正体现了数乘和相加是线性代数的核心。

这里很自然引出一个问题,可不可以换另外的向量作基向量?

比如这里我们用,想象一下任意缩放这两个向量,然后相加,得到不同的结果。

感性上,我们可以得到所有二维平面中的向量;实际上,确实如此。

具体为什么,以及在这样的基下,坐标和向量的关系,可以暂且往后放。目前需要认识到的是,每当我们用数字描述向量时,它都依赖于我们正在使用的基。

线性组合

两个数乘向量的和被称为这两个向量的**线性组合。**在xy坐标系,任意取两个向量进行线性组合时,组合出的所有向量实际上有3种情况:

  • 两个向量都是零向量时,只能得到零向量。
  • 两个向量恰好在一条直线上时,得到的向量终点也全在这条直线上。
  • 其余情况,能得到整个平面所有向量。

张成的空间

这里又引入一点术语:

所有可以表示为给定向量线性组合的向量的集合,称为给定向量张成的空间。

所以,对于大多数二维向量来说,它们张成的空间是整个二维平面的向量;但当共线时,它们张成的空间就是终点落在一条直线上的向量的集合。

我们可以总结,张成的空间实际上就是在问:仅仅通过向量加法与向量数乘这两种基础运算,能获得的所有向量的集合是什么?

向量与点

由于在线性代数中,向量的起点总是在原点,因此可以直接用终点坐标来表示向量,即用点来表示向量。

线性相关/无关

在三维坐标系中,先取两个不共线的向量,两者张成以一个平面,然后再取一个向量,如果没有落在这个平面,那么三者的线性组合可以得到整个三维空间的所有向量。

而当这第3个向量恰好落在前两个向量张成的平面里时,三者张成的空间没有变化,至少有一个向量对张成的空间没有贡献,可以删去而不减小张成的空间,这种情况称它们是线性相关的前面两个向量共线的情况也是如此。

另一种对于线性相关等效的描述是:其中一个向量能被其他向量的线性组合表示(因为这个向量已经落在它们张成的空间中了)

而如果每一个向量都不是多余的,都给张成的空间增添了新的维度,那么我们称它们线性无关

基(basis)是什么在前文已经提到过了,其严格定义是:

向量空间的一组基是张成该空间的一个线性无关的向量集

相关推荐
luofeiju9 小时前
使用LU分解求解线性方程组
线性代数·算法
FF-Studio15 小时前
【硬核数学 · LLM篇】3.1 Transformer之心:自注意力机制的线性代数解构《从零构建机器学习、深度学习到LLM的数学认知》
人工智能·pytorch·深度学习·线性代数·机器学习·数学建模·transformer
盛寒2 天前
矩阵的定义和运算 线性代数
线性代数
盛寒2 天前
初等变换 线性代数
线性代数
叶子爱分享2 天前
浅谈「线性代数的本质」 - 系列合集
线性代数
luofeiju2 天前
RGB下的色彩变换:用线性代数解构色彩世界
图像处理·人工智能·opencv·线性代数
好开心啊没烦恼2 天前
Python:线性代数,向量内积谐音记忆。
开发语言·python·线性代数·数据挖掘·数据分析
Ven%12 天前
矩阵阶数(线性代数) vs. 张量维度(深度学习):线性代数与深度学习的基石辨析,再也不会被矩阵阶数给混淆了
人工智能·pytorch·深度学习·线性代数·矩阵·tensor·张量
云云32113 天前
Subway Surfers Blast × 亚矩阵云手机:手游矩阵运营的终极变现方案
大数据·人工智能·线性代数·智能手机·矩阵·架构
点云侠14 天前
PCL 点云旋转的轴角表示法
人工智能·线性代数·算法·计算机视觉·矩阵