数学基础 -- 线性代数之格拉姆-施密特正交化

格拉姆-施密特正交化

格拉姆-施密特正交化(Gram-Schmidt Orthogonalization)是一种将一组线性无关的向量转换为一组两两正交向量的算法。通过该过程,我们能够从原始向量组中构造正交基,并且可以选择归一化使得向量组成为标准正交基。

算法步骤

假设我们有一组线性无关的向量 { v 1 , v 2 , ... , v n } \{v_1, v_2, \dots, v_n\} {v1,v2,...,vn},其目标是将这些向量正交化,得到一组两两正交的向量 { u 1 , u 2 , ... , u n } \{u_1, u_2, \dots, u_n\} {u1,u2,...,un}。

步骤 1:初始化第一个向量

第一个正交向量 u 1 u_1 u1 直接取为 v 1 v_1 v1:
u 1 = v 1 u_1 = v_1 u1=v1

步骤 2:递归构造正交向量

对于每个 k ≥ 2 k \geq 2 k≥2 的向量 v k v_k vk,我们通过从 v k v_k vk 中去除它在前面所有正交向量上的投影,来构造与前面向量正交的向量 u k u_k uk。

  1. 计算投影 : v k v_k vk 在之前所有正交向量 u 1 , u 2 , ... , u k − 1 u_1, u_2, \dots, u_{k-1} u1,u2,...,uk−1 上的投影为:
    Proj u i ( v k ) = ⟨ v k , u i ⟩ ⟨ u i , u i ⟩ u i \text{Proj}_{u_i}(v_k) = \frac{\langle v_k, u_i \rangle}{\langle u_i, u_i \rangle} u_i Projui(vk)=⟨ui,ui⟩⟨vk,ui⟩ui

    其中 ⟨ ⋅ , ⋅ ⟩ \langle \cdot, \cdot \rangle ⟨⋅,⋅⟩ 表示内积。

  2. 去投影 :从 v k v_k vk 中减去它在所有 u 1 , u 2 , ... , u k − 1 u_1, u_2, \dots, u_{k-1} u1,u2,...,uk−1 上的投影,得到与之前向量正交的新向量 u k u_k uk:
    u k = v k − ∑ i = 1 k − 1 Proj u i ( v k ) u_k = v_k - \sum_{i=1}^{k-1} \text{Proj}_{u_i}(v_k) uk=vk−i=1∑k−1Projui(vk)

  3. 归一化 (可选):如果需要正交归一基,可以将 u k u_k uk 归一化:
    u k = u k ∥ u k ∥ u_k = \frac{u_k}{\|u_k\|} uk=∥uk∥uk

通过递归执行这些步骤,最终得到一组正交(或正交归一)的向量 u 1 , u 2 , ... , u n u_1, u_2, \dots, u_n u1,u2,...,un。

使用案例

我们来看一个二维空间中的具体例子。

给定两个向量:
v 1 = ( 1 1 ) , v 2 = ( 1 0 ) v_1 = \begin{pmatrix} 1 \\ 1 \end{pmatrix}, \quad v_2 = \begin{pmatrix} 1 \\ 0 \end{pmatrix} v1=(11),v2=(10)

步骤 1:初始化第一个正交向量

第一个正交向量 u 1 u_1 u1 为 v 1 v_1 v1:
u 1 = v 1 = ( 1 1 ) u_1 = v_1 = \begin{pmatrix} 1 \\ 1 \end{pmatrix} u1=v1=(11)

归一化后:
u 1 = 1 2 ( 1 1 ) u_1 = \frac{1}{\sqrt{2}} \begin{pmatrix} 1 \\ 1 \end{pmatrix} u1=2 1(11)

步骤 2:构造第二个正交向量

第二个向量 v 2 v_2 v2 需要去掉它在 u 1 u_1 u1 上的投影:

  1. 计算投影
    Proj u 1 ( v 2 ) = ⟨ v 2 , u 1 ⟩ ⟨ u 1 , u 1 ⟩ u 1 = 1 2 ( 1 1 ) \text{Proj}_{u_1}(v_2) = \frac{\langle v_2, u_1 \rangle}{\langle u_1, u_1 \rangle} u_1 = \frac{1}{2} \begin{pmatrix} 1 \\ 1 \end{pmatrix} Proju1(v2)=⟨u1,u1⟩⟨v2,u1⟩u1=21(11)

  2. 去投影
    u 2 = v 2 − Proj u 1 ( v 2 ) = ( 1 0 ) − 1 2 ( 1 1 ) = ( 1 2 − 1 2 ) u_2 = v_2 - \text{Proj}_{u_1}(v_2) = \begin{pmatrix} 1 \\ 0 \end{pmatrix} - \frac{1}{2} \begin{pmatrix} 1 \\ 1 \end{pmatrix} = \begin{pmatrix} \frac{1}{2} \\ -\frac{1}{2} \end{pmatrix} u2=v2−Proju1(v2)=(10)−21(11)=(21−21)

  3. 归一化
    u 2 = u 2 ∥ u 2 ∥ = 1 2 ( 1 − 1 ) u_2 = \frac{u_2}{\|u_2\|} = \frac{1}{\sqrt{2}} \begin{pmatrix} 1 \\ -1 \end{pmatrix} u2=∥u2∥u2=2 1(1−1)

因此,经过正交化后的正交向量组为:
u 1 = 1 2 ( 1 1 ) , u 2 = 1 2 ( 1 − 1 ) u_1 = \frac{1}{\sqrt{2}} \begin{pmatrix} 1 \\ 1 \end{pmatrix}, \quad u_2 = \frac{1}{\sqrt{2}} \begin{pmatrix} 1 \\ -1 \end{pmatrix} u1=2 1(11),u2=2 1(1−1)

应用

格拉姆-施密特正交化广泛应用于以下场景:

  1. 正交基构造:将线性无关的向量转换为正交向量,便于简化计算。
  2. QR分解:将矩阵分解为正交矩阵和上三角矩阵。
  3. 数值计算:在解决最小二乘问题时,正交化可提高数值稳定性。
相关推荐
sendnews4 分钟前
AI赋能教育,小猿搜题系列产品携手DeepSeek打造个性化学习新体验
人工智能
悠然的笔记本6 分钟前
机器学习,我们主要学习什么?
机器学习
紫雾凌寒15 分钟前
解锁机器学习核心算法|神经网络:AI 领域的 “超级引擎”
人工智能·python·神经网络·算法·机器学习·卷积神经网络
WBingJ26 分钟前
2月17日深度学习日记
人工智能
zhengyawen66627 分钟前
深度学习之图像分类(一)
人工智能·深度学习·分类
莫莫莫i31 分钟前
拆解微软CEO纳德拉战略蓝图:AI、量子计算、游戏革命如何改写未来规则!
人工智能·微软·量子计算
C#Thread34 分钟前
机器视觉--图像的运算(加法)
图像处理·人工智能·计算机视觉
无极工作室(网络安全)1 小时前
机器学习小项目之鸢尾花分类
人工智能·机器学习·分类
涛涛讲AI1 小时前
文心一言大模型的“三级跳”:从收费到免费再到开源,一场AI生态的重构实验
人工智能·百度·大模型·deepseek
视觉人机器视觉1 小时前
机器视觉中的3D高反光工件检测
人工智能·3d·c#·视觉检测