线性代数-3Blue1Brown《线性代数的本质》叉积(10)

本文是3B1B 《线性代数的本质》系列视频之 叉积 的学习笔记。在3B1B中叉积被赋予了全新的几何与代数视角,揭示了叉积背后的本质。

1、叉积的传统意义

1.1 定义

在三维空间中,给定两个向量 v⃗\vec{v}v 和 w⃗\vec{w}w ,它们的叉积是一个新的向量 v⃗×w⃗\vec{v} \times \vec{w}v ×w
v=[v1v2v3],w=[w1w2w3] v=\begin{bmatrix} v_1 & v_2 & v_3 \end{bmatrix}, w=\begin{bmatrix} w_1 & w_2 & w_3 \end{bmatrix} v=[v1v2v3],w=[w1w2w3]

它们的叉积定义为:v⃗×w⃗=(v2w3−v3w2,v3w1−v1w3,v1w2−v2w1)\vec{v} \times \vec{w}=(v_2 w_3−v_3w_2,v_3w_1 −v_1w_3,v_1w_2−v_2w_1)v ×w =(v2w3−v3w2,v3w1−v1w3,v1w2−v2w1)

行列式表示:
v⃗=[v1v2v3],w⃗=[w1w2w3] \vec{v} = \begin{bmatrix} v_1 \\ v_2 \\ v_3 \end{bmatrix},\quad \vec{w} = \begin{bmatrix} w_1 \\ w_2 \\ w_3 \end{bmatrix} v = v1v2v3 ,w = w1w2w3


v⃗×w⃗=∣i^j^k^v1v2v3w1w2w3∣ \vec{v} \times \vec{w} = \begin{vmatrix} \hat{i} & \hat{j} & \hat{k} \\ v_1 & v_2 & v_3 \\ w_1 & w_2 & w_3 \end{vmatrix} v ×w = i^v1w1j^v2w2k^v3w3


1.2 几何意义

  • 方向: 垂直于 vvv 和 www 所在的平面,遵循右手定则
  • 模长:
    ∥v⃗×w⃗∥=∥v⃗∥∥w⃗∥sin⁡θ \|\vec{v} \times \vec{w}\| = \|\vec{v}\| \|\vec{w}\| \sin\theta ∥v ×w ∥=∥v ∥∥w ∥sinθ
    其中 θθθ是两向量夹角。模长等于以vvv 和 www 为邻边的平行四边形面积。
    若 vvv 和 www 共线,则vvv × www = 0

2、在3B1B中 叉积的本质

两个向量 v⃗\vec{v}v 和 w⃗\vec{w}w ,衡量一个任意第三向量 u⃗\vec{u}u 相对于由 v⃗\vec{v}v 和 w⃗\vec{w}w 张成的平面的"朝向程度"。具体来说,可以定义一个函数:

f(u⃗)=以 u⃗,v⃗,w⃗ 为边的平行六面体的有向体积 f(\vec{u}) = \text{以 } \vec{u}, \vec{v}, \vec{w} \text{ 为边的平行六面体的有向体积} f(u )=以 u ,v ,w 为边的平行六面体的有向体积

可以表示为:
f(u⃗)=u⃗⋅(v⃗×w⃗) f(\vec{u}) = \vec{u} \cdot (\vec{v} \times \vec{w}) f(u )=u ⋅(v ×w )

f(u⃗)f(\vec{u})f(u ) 是一个关于 u⃗\vec{u}u 的线性函数

在线性代数中,任何从 R3→R\mathbb{R}^3 \to \mathbb{R}R3→R 的线性函数,都可以表示为与某个固定向量的点积

因此,存在一个唯一的向量 p⃗\vec{p}p ,使得:
f(u⃗)=u⃗⋅p⃗ f(\vec{u}) = \vec{u} \cdot \vec{p} f(u )=u ⋅p

而这个神秘的向量 p⃗\vec{p}p ,就是 v⃗×w⃗\vec{v} \times \vec{w}v ×w !


通过上述推导,v⃗×w⃗\vec{v} \times \vec{w}v ×w 是这样一个向量:当用任意 u⃗\vec{u}u 去点乘它时,结果正好是以 u⃗,v⃗,w⃗\vec{u}, \vec{v}, \vec{w}u ,v ,w 为边的平行六面体的有向体积。

相关推荐
我是大聪明.2 小时前
大模型Tokenizer原理:BPE、WordPiece与子词编码的核心机制深度解析
人工智能·线性代数·算法·机器学习·矩阵
萌新小码农‍1 天前
人工智能线性代数基础
人工智能·线性代数·机器学习
生信研究猿1 天前
#P4538.第2题-基于混淆矩阵,推导分类模型的核心评估指标
线性代数·矩阵
star learning white2 天前
线性代数3
人工智能·线性代数·机器学习
爱吃巧克力的程序媛2 天前
计算机图形学---如何理解模型矩阵、视图矩阵、投影矩阵
数码相机·线性代数·矩阵
做cv的小昊2 天前
【TJU】研究生应用统计学课程笔记(5)——第二章 参数估计(2.3 C-R不等式)
c语言·笔记·线性代数·机器学习·数学建模·r语言·概率论
借雨醉东风2 天前
程序分享--常见算法/编程面试题:旋转矩阵
c++·线性代数·算法·面试·职场和发展·矩阵
做cv的小昊3 天前
【TJU】应用统计学——第七周作业(4.2 多元线性回归分析、4.3 可化为线性回归的曲线回归、4.4 单因子方差分析)
线性代数·算法·数学建模·矩阵·回归·线性回归·概率论
上善若水20203 天前
【定制开发】ENC设备视频矩阵功能介绍
线性代数·矩阵·音视频
John的打铁站3 天前
对稀疏矩阵运算的两种优化方式
线性代数·矩阵