数学分析:流形的线性代数回顾

因为是线性的,所以可以把所有的系数都提取出去。这也是多重线性代数的性质。可以看成基本的各项自变量的乘法。

这里可以看到两个不同基向量下,他们的坐标转化关系。

引出了张量积,也就是前面提到的内容。

对偶空间的例子总是比较美好。

因为e^i就是把x的第i个坐标给取出来。所以就得到了(10),每一个张量基的组成部分都是取到对应的坐标。他们作用在x上就会得到(1)

这个意思是说,对于任何k形式,我们都可以通过一种运算得到斜对称形式。

这里我们看到了为什么要引入行列式,是因为一个取坐标的操作的张量积放到斜对称形式的推导里面,会得到一个式子,这个式子就是行列式的公式。然后也说了为什么要引入外积,因为斜对称形式的张量积一般就不是斜对称了,引入外积的话就是为了保证还是斜对称。公式15就是外积的定义。其实这里可以感受到,斜对称应该是一个非常重要的形式,我们后面看。

这个式子还是要仔细理解的。前面就是k形式,后面是k形式的求和。

求和的系数取决于交换次数。

按照前面的公式,我们可以发现取坐标的外积,最终就是这些坐标分别取出来组成一个矩阵的行列式的值。

这里我们看到,是想把普通k形式都转成斜对称形式,引入了一个运算A,本来k形式就是F=ae1xe2...exn

引入A之后,变成了斜对称形式,就有了行列式。要考虑斜对称之间的运算还是斜对称,就引入了外积。

最后这一段看不太懂,需要再理解下。问了GPT,它的意思是对于n维线性空间,如果你的k形式的k>n。例如k=3,n=2, 那么按照反对称的定义,里面比如有两个元素是一样的。例如取坐标,二维空间就两个坐标可以取,但你要取3次,必有两次是重复的。重复的就代表斜对称必须为0.

看着比较费解,冲对偶映射去理解,X->Y,会变成Y*->X*,于是l*F^k肯定是相当于Fx.最终就是(25),27,28,29公式形式还是很优美的。

这里提到了坐标,我们得先复习:

k形势下的坐标形式,后面的y的一堆的乘积就是坐标,前面是k形式作用在基上的值。

所以我们得到了两个不同空间中的k形式的一些关系。Y上的k形式,作用在Y的基上引出的系数b。和对偶映射X上的k形式,作用在X的基上引出的系数a,他们之间的系数关系和基的关系的表达式。

这个结论是说明:我们通过对偶映射把Y上的取坐标转到x上的一个映射,它等价于一堆取坐标函数的和。

这个更一般的结论和5应该是一样的。我们得到了两组基向量的关系,他们对应的对偶映射的k形式也是具有类似关系的。

在整理下:我们对于普通的k形式,想要引入斜对称,就引入了运算A,我们发现运算A本质上是可以看成一个行列式。而斜对称之间的运算需要在符合斜对称,于是引入了外积。同时我们发现,行列式可以看成取坐标运算符的外积的操作。于是我们就会开始研究取坐标操作运算之间的外积。然后得到了一系列的坐标转化公式。

相关推荐
却道天凉_好个秋几秒前
OpenCV(二十四):图像滤波
人工智能·opencv·计算机视觉
Learn Beyond Limits几秒前
Data Mining Tasks|数据挖掘任务
人工智能·python·神经网络·算法·机器学习·ai·数据挖掘
lisw052 分钟前
计算生物学的学科体系!
大数据·人工智能·机器学习
cxr8281 小时前
深度解析顶级 Doc Agent System Prompt 的架构与实践
网络·人工智能·架构·prompt·ai智能体·ai赋能·上下文工程
TGITCIC1 小时前
User Prompt 与 System Prompt:大模型沟通的“双引擎”机制深度拆解
人工智能·大模型·prompt·提示词·ai大模型·大模型ai·上下文工程
leiming61 小时前
ResNetLayer 类
人工智能·神经网络·计算机视觉
麦麦大数据1 小时前
F045 vue+flask棉花病虫害CNN识别+AI问答知识neo4j 图谱可视化系统深度学习神经网络
人工智能·深度学习·神经网络·cnn·可视化·智能问答·病虫害识别
IT_陈寒1 小时前
Java 17实战:我从老旧Spring项目迁移中总结的7个关键避坑点
前端·人工智能·后端
渡我白衣1 小时前
字符串的陷阱与艺术——std::string全解析
网络·c++·人工智能·自然语言处理·智能路由器·信息与通信·caffe
Allen200001 小时前
Hello-Agents task2 大语言模型基础
人工智能·语言模型·自然语言处理