数学分析:流形的线性代数回顾

因为是线性的,所以可以把所有的系数都提取出去。这也是多重线性代数的性质。可以看成基本的各项自变量的乘法。

这里可以看到两个不同基向量下,他们的坐标转化关系。

引出了张量积,也就是前面提到的内容。

对偶空间的例子总是比较美好。

因为e^i就是把x的第i个坐标给取出来。所以就得到了(10),每一个张量基的组成部分都是取到对应的坐标。他们作用在x上就会得到(1)

这个意思是说,对于任何k形式,我们都可以通过一种运算得到斜对称形式。

这里我们看到了为什么要引入行列式,是因为一个取坐标的操作的张量积放到斜对称形式的推导里面,会得到一个式子,这个式子就是行列式的公式。然后也说了为什么要引入外积,因为斜对称形式的张量积一般就不是斜对称了,引入外积的话就是为了保证还是斜对称。公式15就是外积的定义。其实这里可以感受到,斜对称应该是一个非常重要的形式,我们后面看。

这个式子还是要仔细理解的。前面就是k形式,后面是k形式的求和。

求和的系数取决于交换次数。

按照前面的公式,我们可以发现取坐标的外积,最终就是这些坐标分别取出来组成一个矩阵的行列式的值。

这里我们看到,是想把普通k形式都转成斜对称形式,引入了一个运算A,本来k形式就是F=ae1xe2...exn

引入A之后,变成了斜对称形式,就有了行列式。要考虑斜对称之间的运算还是斜对称,就引入了外积。

最后这一段看不太懂,需要再理解下。问了GPT,它的意思是对于n维线性空间,如果你的k形式的k>n。例如k=3,n=2, 那么按照反对称的定义,里面比如有两个元素是一样的。例如取坐标,二维空间就两个坐标可以取,但你要取3次,必有两次是重复的。重复的就代表斜对称必须为0.

看着比较费解,冲对偶映射去理解,X->Y,会变成Y*->X*,于是l*F^k肯定是相当于Fx.最终就是(25),27,28,29公式形式还是很优美的。

这里提到了坐标,我们得先复习:

k形势下的坐标形式,后面的y的一堆的乘积就是坐标,前面是k形式作用在基上的值。

所以我们得到了两个不同空间中的k形式的一些关系。Y上的k形式,作用在Y的基上引出的系数b。和对偶映射X上的k形式,作用在X的基上引出的系数a,他们之间的系数关系和基的关系的表达式。

这个结论是说明:我们通过对偶映射把Y上的取坐标转到x上的一个映射,它等价于一堆取坐标函数的和。

这个更一般的结论和5应该是一样的。我们得到了两组基向量的关系,他们对应的对偶映射的k形式也是具有类似关系的。

在整理下:我们对于普通的k形式,想要引入斜对称,就引入了运算A,我们发现运算A本质上是可以看成一个行列式。而斜对称之间的运算需要在符合斜对称,于是引入了外积。同时我们发现,行列式可以看成取坐标运算符的外积的操作。于是我们就会开始研究取坐标操作运算之间的外积。然后得到了一系列的坐标转化公式。

相关推荐
我就是全世界6 分钟前
TensorRT-LLM:大模型推理加速的核心技术与实践优势
人工智能·机器学习·性能优化·大模型·tensorrt-llm
.30-06Springfield9 分钟前
决策树(Decision tree)算法详解(ID3、C4.5、CART)
人工智能·python·算法·决策树·机器学习
我不是哆啦A梦10 分钟前
破解风电运维“百模大战”困局,机械版ChatGPT诞生?
运维·人工智能·python·算法·chatgpt
galaxylove23 分钟前
Gartner发布塑造安全运营未来的关键 AI 自动化趋势
人工智能·安全·自动化
强哥之神2 小时前
英伟达发布 Llama Nemotron Nano 4B:专为边缘 AI 和科研任务优化的高效开源推理模型
人工智能·深度学习·语言模型·架构·llm·transformer·边缘计算
Green1Leaves2 小时前
pytorch学习-9.多分类问题
人工智能·pytorch·学习
微小冷2 小时前
二关节机器人系统模型推导
线性代数·机器人·概率论·推导·拉格朗日函数·二关节机器人·机器人控制系统的设计
kyle~2 小时前
计算机视觉---RealSense深度相机技术
人工智能·数码相机·计算机视觉·机器人·嵌入式·ros·传感器
碣石潇湘无限路3 小时前
【AI篇】当Transformer模型开始学习《孙子兵法》
人工智能·学习
看到我,请让我去学习3 小时前
OpenCV开发-初始概念
人工智能·opencv·计算机视觉