数学分析:流形的线性代数回顾

因为是线性的,所以可以把所有的系数都提取出去。这也是多重线性代数的性质。可以看成基本的各项自变量的乘法。

这里可以看到两个不同基向量下,他们的坐标转化关系。

引出了张量积,也就是前面提到的内容。

对偶空间的例子总是比较美好。

因为e^i就是把x的第i个坐标给取出来。所以就得到了(10),每一个张量基的组成部分都是取到对应的坐标。他们作用在x上就会得到(1)

这个意思是说,对于任何k形式,我们都可以通过一种运算得到斜对称形式。

这里我们看到了为什么要引入行列式,是因为一个取坐标的操作的张量积放到斜对称形式的推导里面,会得到一个式子,这个式子就是行列式的公式。然后也说了为什么要引入外积,因为斜对称形式的张量积一般就不是斜对称了,引入外积的话就是为了保证还是斜对称。公式15就是外积的定义。其实这里可以感受到,斜对称应该是一个非常重要的形式,我们后面看。

这个式子还是要仔细理解的。前面就是k形式,后面是k形式的求和。

求和的系数取决于交换次数。

按照前面的公式,我们可以发现取坐标的外积,最终就是这些坐标分别取出来组成一个矩阵的行列式的值。

这里我们看到,是想把普通k形式都转成斜对称形式,引入了一个运算A,本来k形式就是F=ae1xe2...exn

引入A之后,变成了斜对称形式,就有了行列式。要考虑斜对称之间的运算还是斜对称,就引入了外积。

最后这一段看不太懂,需要再理解下。问了GPT,它的意思是对于n维线性空间,如果你的k形式的k>n。例如k=3,n=2, 那么按照反对称的定义,里面比如有两个元素是一样的。例如取坐标,二维空间就两个坐标可以取,但你要取3次,必有两次是重复的。重复的就代表斜对称必须为0.

看着比较费解,冲对偶映射去理解,X->Y,会变成Y*->X*,于是l*F^k肯定是相当于Fx.最终就是(25),27,28,29公式形式还是很优美的。

这里提到了坐标,我们得先复习:

k形势下的坐标形式,后面的y的一堆的乘积就是坐标,前面是k形式作用在基上的值。

所以我们得到了两个不同空间中的k形式的一些关系。Y上的k形式,作用在Y的基上引出的系数b。和对偶映射X上的k形式,作用在X的基上引出的系数a,他们之间的系数关系和基的关系的表达式。

这个结论是说明:我们通过对偶映射把Y上的取坐标转到x上的一个映射,它等价于一堆取坐标函数的和。

这个更一般的结论和5应该是一样的。我们得到了两组基向量的关系,他们对应的对偶映射的k形式也是具有类似关系的。

在整理下:我们对于普通的k形式,想要引入斜对称,就引入了运算A,我们发现运算A本质上是可以看成一个行列式。而斜对称之间的运算需要在符合斜对称,于是引入了外积。同时我们发现,行列式可以看成取坐标运算符的外积的操作。于是我们就会开始研究取坐标操作运算之间的外积。然后得到了一系列的坐标转化公式。

相关推荐
陈广亮几秒前
2026年 AI Agent 开发工具生态全景
人工智能
陈广亮1 分钟前
AI Agent Skills 完全指南:让你的 AI 助手拥有超能力
人工智能
用户3231069488282 分钟前
OpenSpec 综合指南:使用动机与实践
人工智能
一个天蝎座 白勺 程序猿4 分钟前
Jenkins X + AI:重塑云原生时代的持续交付范式
人工智能·云原生·jenkins
狮子座明仔15 分钟前
DeepImageSearch:当图像检索需要“侦探式推理“,现有AI还差多远?
大数据·人工智能·语言模型
weixin_4445793020 分钟前
西湖大学强化学习第三讲——贝尔曼最优公式
人工智能
SmartBrain25 分钟前
技术总结:VLLM部署Qwen3模型的详解
开发语言·人工智能·算法·vllm
weixin_4772716928 分钟前
第四正:关键(马王堆帛书《老子》20)
人工智能·算法·图搜索算法
cxr82832 分钟前
2026年AI智能体实战总结概要
人工智能·ai智能体·openclaw
Clarence Liu32 分钟前
用大白话讲解人工智能(11) 向量数据库:AI的“长期记忆“是如何实现的?
人工智能