线性代数-3Blue1Brown《线性代数的本质》特征向量与特征值(12)

本文是3B1B 《线性代数的本质》系列视频之 征向量与特征值 的学习笔记。

1、几何理解

特征向量是线性变换中方向始终不变,只发生伸缩(或反向)的非零向量。特征值则描述了该方向被拉伸或压缩的倍数。

特征向量是在变换中只被拉伸或压缩,而不被旋转出自身直线的向量。

线性变换时,特征向量拒绝"转向",只接受"伸缩"或"反向"(反向是伸缩倍数为负数的伸缩,方向依然在同一条直线上)

特征值λ是特征向量的伸缩系数,λ>0时,向量与原方向同向,|λ|>1拉伸,|λ|<1缩短;λ<0时,向量与原方向反向,|λ|决定伸缩幅度;λ=0时,向量被压缩到原点(无意义)。

形象比喻

  • 地球仪旋转:地轴方向就是特征方向
  • 在一个画满箭头的画布,拉伸画布,箭头方向不变,长度放大的箭头就是特征向量箭头

缩放

矩阵 A = [ 3 0 0 2 ] A = \begin{bmatrix}3 & 0 \\0 & 2\end{bmatrix} A=[3002]

  • 特征向量就是坐标轴方向
  • x方向拉伸3倍,特征值=3
  • y方向拉伸2倍,特征值=2

旋转90°

A = [ 0 − 1 1 0 ] A = \begin{bmatrix} 0 & -1 \\ 1 & 0 \end{bmatrix} A=[01−10]

所有向量旋转90°,所有方向都改变,无特征向量。

2、特征方程

1.对于一个 n × n n×n n×n 方阵 A A A,如果存在 非零向量 v v v 和 标量 λ λ λ 使得: A v = λ v Av=λv Av=λv

  • λ λ λ 称为特征值(标量)
  • v v v 称为对应 λ λ λ 的特征向量

2.移项: A v − λ v = 0 Av-λv=0 Av−λv=0

3.插入单位矩阵 I I I: A v − λ I v = 0 Av-λIv=0 Av−λIv=0

为什么需要 λ I λI λI 而不是 λ λ λ?

因为 A A A 是矩阵, λ λ λ 是标量,不能直接相减

通过单位矩阵 I I I 将 λ λ λ 转换为矩阵形式:

λ 0 0 0 λ 0 0 0 λ \] \\begin{bmatrix} λ \& 0 \& 0 \\\\ 0 \& λ \& 0 \\\\ 0 \& 0 \& λ\\end{bmatrix} λ000λ000λ

4.提取 v v v: ( A − λ I ) v = 0 (A-λI)v = 0 (A−λI)v=0

5.要有非零解 v v v,得到特征方程: d e t ( A − λ I ) = 0 det(A - λ I) = 0 det(A−λI)=0

线性代数-3Blue1Brown《线性代数的本质》行列式(7)

相关推荐
池央1 天前
ops-nn 算子库中的数据布局与混合精度策略:卷积、矩阵乘法与 RNN 的优化实践
rnn·线性代数·矩阵
深鱼~1 天前
大模型底层算力支撑:ops-math在矩阵乘法上的优化
人工智能·线性代数·矩阵·cann
Zfox_1 天前
CANN PyPTO 编程范式深度解析:并行张量与 Tile 分块操作的架构原理、内存控制与流水线调度机制
线性代数·矩阵·架构
TechWJ1 天前
catlass深度解析:Ascend平台的高性能矩阵运算模板库
线性代数·矩阵·ascend·cann·catlass
deep_drink2 天前
【基础知识一】线性代数的核心:从矩阵变换到 SVD 终极奥义
线性代数·机器学习·矩阵
数智工坊2 天前
【数据结构-特殊矩阵】3.5 特殊矩阵-压缩存储
数据结构·线性代数·矩阵
AI科技星2 天前
张祥前统一场论核心场方程的经典验证-基于电子与质子的求导溯源及力的精确计算
线性代数·算法·机器学习·矩阵·概率论
deep_drink2 天前
【基础知识二】彻底读懂拉普拉斯矩阵 (Laplacian)
人工智能·深度学习·线性代数·矩阵
sonadorje2 天前
标量投影和向量投影
线性代数