5.Vectors Transformation Rules

在上节,有个问题:向量分量的转换方式 与 新旧基底的转换方式相反

用例子来感受一下,

空间中一向量V,即该空间的一个基底:e1、e2

v = e1 + e2

现把基底 e1 、 e2 放大两倍。变成

基向量放大了两倍, 但对于向量v ,其向量组件缩小了两倍。

它们两个 做了相反的事, 基向量放大, 某向量的向量组件缩小。 但V是不变的。

当使用新的基向量测量V时,V看起来更小,因为基向量变大了两倍

另一个例子:

旧基底:e1 、 e2 ; 新基底:

向量V

V 由大约相等的部分 e1 、e2组成, 且V与e1、e2的夹角大致相等。 意味着每个方向上的组件大致相同;

现顺时针选择这对基底, 使得V与的夹角 大于 V与的夹角。 V不变

但V现在与相比,V更接近 , 这时,组件做了相反的事,V = x +y

x肯定是 < y 的

回到上节最后那部分的内容,

当向量分量的行为方式 与 基向量的行为 相反 时,当基变大时,这是 完全有意义的。

意义:当基变大时,分量会缩小; 当基底向一个方向旋转时,组件 会向另一个方向旋转。

无论基底做什么,组件都会做 相反 的事。

通过这两个例子, 就能对2D中会发生这种相反的行为有了一定直觉。

那是否是在任何维度都如此呢?

证明 :(当然也是针对向量,旧基、新基的行为,组件的行为)

利用这个,以及之前的前向变换和后向变换。

代入,化简

以上就证明了,为从 旧组件 转移到 新组件, 我们实际上是 使用了 后向转换(Backward)

类似的,从新组件 转移到旧组件, 使用 向前转换(Forward)

现在因为向量分量的行为 与 基向量相反,

我们说 向量分量 是 Contra-variant

(向量是 逆变张量 vectors are contravariant tensors)

规定:

上述形式,改为:

这里向量V 已经被我们用 新基的线性组合或者旧基的线性组合写出,

但这些向量组件,因为它们是 CONTRA-variant。

我们将在编写方式上做点 改变,

把组件()的索引i写到字母v右上方

通过写在右上角,提醒 我们 组件是逆变的。

注意哦,把系数的i放到右上角, 其仍然是索引值,表示第 i 个,而不是 指数

基向量的索引是在右下角, 向量组件的索引在右上角,在某种程度上提醒了它们的行为方式相反

相关推荐
陈广亮8 分钟前
构建具有长期记忆的 AI Agent:从设计模式到生产实践
人工智能
会写代码的柯基犬17 分钟前
DeepSeek vs Kimi vs Qwen —— AI 生成俄罗斯方块代码效果横评
人工智能·llm
Mintopia44 分钟前
OpenClaw 是什么?为什么节后热度如此之高?
人工智能
爱可生开源社区1 小时前
DBA 的未来?八位行业先锋的年度圆桌讨论
人工智能·dba
叁两4 小时前
用opencode打造全自动公众号写作流水线,AI 代笔太香了!
前端·人工智能·agent
前端付豪4 小时前
LangChain记忆:通过Memory记住上次的对话细节
人工智能·python·langchain
strayCat232554 小时前
Clawdbot 源码解读 7: 扩展机制
人工智能·开源
王鑫星4 小时前
SWE-bench 首次突破 80%:Claude Opus 4.5 发布,Anthropic 的野心不止于写代码
人工智能
lnix4 小时前
当“大龙虾”养在本地:我们离“反SaaS”的AI未来还有多远?
人工智能·aigc