5.Vectors Transformation Rules

在上节,有个问题:向量分量的转换方式 与 新旧基底的转换方式相反

用例子来感受一下,

空间中一向量V,即该空间的一个基底:e1、e2

v = e1 + e2

现把基底 e1 、 e2 放大两倍。变成

基向量放大了两倍, 但对于向量v ,其向量组件缩小了两倍。

它们两个 做了相反的事, 基向量放大, 某向量的向量组件缩小。 但V是不变的。

当使用新的基向量测量V时,V看起来更小,因为基向量变大了两倍

另一个例子:

旧基底:e1 、 e2 ; 新基底:

向量V

V 由大约相等的部分 e1 、e2组成, 且V与e1、e2的夹角大致相等。 意味着每个方向上的组件大致相同;

现顺时针选择这对基底, 使得V与的夹角 大于 V与的夹角。 V不变

但V现在与相比,V更接近 , 这时,组件做了相反的事,V = x +y

x肯定是 < y 的

回到上节最后那部分的内容,

当向量分量的行为方式 与 基向量的行为 相反 时,当基变大时,这是 完全有意义的。

意义:当基变大时,分量会缩小; 当基底向一个方向旋转时,组件 会向另一个方向旋转。

无论基底做什么,组件都会做 相反 的事。

通过这两个例子, 就能对2D中会发生这种相反的行为有了一定直觉。

那是否是在任何维度都如此呢?

证明 :(当然也是针对向量,旧基、新基的行为,组件的行为)

利用这个,以及之前的前向变换和后向变换。

代入,化简

以上就证明了,为从 旧组件 转移到 新组件, 我们实际上是 使用了 后向转换(Backward)

类似的,从新组件 转移到旧组件, 使用 向前转换(Forward)

现在因为向量分量的行为 与 基向量相反,

我们说 向量分量 是 Contra-variant

(向量是 逆变张量 vectors are contravariant tensors)

规定:

上述形式,改为:

这里向量V 已经被我们用 新基的线性组合或者旧基的线性组合写出,

但这些向量组件,因为它们是 CONTRA-variant。

我们将在编写方式上做点 改变,

把组件()的索引i写到字母v右上方

通过写在右上角,提醒 我们 组件是逆变的。

注意哦,把系数的i放到右上角, 其仍然是索引值,表示第 i 个,而不是 指数

基向量的索引是在右下角, 向量组件的索引在右上角,在某种程度上提醒了它们的行为方式相反

相关推荐
北辰alk1 小时前
RAG索引流程详解:如何高效解析文档构建知识库
人工智能
九河云1 小时前
海上风电“AI偏航对风”:把发电量提升2.1%,单台年增30万度
大数据·人工智能·数字化转型
wm10431 小时前
机器学习第二讲 KNN算法
人工智能·算法·机器学习
沈询-阿里1 小时前
Skills vs MCP:竞合关系还是互补?深入解析Function Calling、MCP和Skills的本质差异
人工智能·ai·agent·ai编程
xiaobai1781 小时前
测试工程师入门AI技术 - 前序:跨越焦虑,从优势出发开启学习之旅
人工智能·学习
盛世宏博北京2 小时前
云边协同・跨系统联动:智慧档案馆建设与功能落地
大数据·人工智能
TGITCIC2 小时前
讲透知识图谱Neo4j在构建Agent时到底怎么用(二)
人工智能·知识图谱·neo4j·ai agent·ai智能体·大模型落地·graphrag
逆羽飘扬2 小时前
DeepSeek-mHC深度拆解:流形约束如何驯服狂暴的超连接?
人工智能
bing.shao2 小时前
AI工作流如何开始
人工智能
小途软件3 小时前
用于机器人电池电量预测的Sarsa强化学习混合集成方法
java·人工智能·pytorch·python·深度学习·语言模型