数学基础 -- 线性代数之线性变换

线性变换

线性变换 是线性代数中的一个基本概念,它描述了一种特殊的函数,该函数将一个向量空间中的向量映射到另一个向量空间中,并且保持向量加法和标量乘法的性质。具体来说,设 V V V 和 W W W 是两个向量空间,一个映射 T : V → W T: V \rightarrow W T:V→W 被称为线性变换,当且仅当对于任意的向量 u , v ∈ V \mathbf{u}, \mathbf{v} \in V u,v∈V 和标量 c ∈ R c \in \mathbb{R} c∈R (或 C \mathbb{C} C),以下两条性质成立:

  1. 加法保持性 : T ( u + v ) = T ( u ) + T ( v ) T(\mathbf{u} + \mathbf{v}) = T(\mathbf{u}) + T(\mathbf{v}) T(u+v)=T(u)+T(v)
  2. 标量乘法保持性 : T ( c u ) = c T ( u ) T(c\mathbf{u}) = cT(\mathbf{u}) T(cu)=cT(u)

例子

  1. 二维平面上的旋转:

    • 设 T : R 2 → R 2 T: \mathbb{R}^2 \rightarrow \mathbb{R}^2 T:R2→R2 是一个将二维平面上的向量绕原点旋转 θ \theta θ 角度的变换。若 v = ( x y ) \mathbf{v} = \begin{pmatrix} x \\ y \end{pmatrix} v=(xy),则经过变换 T T T 后:
      T ( v ) = ( cos ⁡ θ − sin ⁡ θ sin ⁡ θ cos ⁡ θ ) ( x y ) = ( x cos ⁡ θ − y sin ⁡ θ x sin ⁡ θ + y cos ⁡ θ ) T(\mathbf{v}) = \begin{pmatrix} \cos\theta & -\sin\theta \\ \sin\theta & \cos\theta \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} = \begin{pmatrix} x\cos\theta - y\sin\theta \\ x\sin\theta + y\cos\theta \end{pmatrix} T(v)=(cosθsinθ−sinθcosθ)(xy)=(xcosθ−ysinθxsinθ+ycosθ)
      这个变换保持了向量加法和标量乘法的性质,因此是一个线性变换。
  2. 二维平面上的缩放:

    • 设 T : R 2 → R 2 T: \mathbb{R}^2 \rightarrow \mathbb{R}^2 T:R2→R2 是一个将向量 v \mathbf{v} v 进行均匀缩放的变换。对于缩放系数 k k k, T ( v ) = k v T(\mathbf{v}) = k\mathbf{v} T(v)=kv。如果 v = ( x y ) \mathbf{v} = \begin{pmatrix} x \\ y \end{pmatrix} v=(xy),则:
      T ( v ) = k ( x y ) = ( k x k y ) T(\mathbf{v}) = k\begin{pmatrix} x \\ y \end{pmatrix} = \begin{pmatrix} kx \\ ky \end{pmatrix} T(v)=k(xy)=(kxky)
      这个变换同样保持了向量加法和标量乘法的性质,是一个线性变换。
  3. 投影变换:

    • 设 T : R 3 → R 2 T: \mathbb{R}^3 \rightarrow \mathbb{R}^2 T:R3→R2 是一个将三维向量投影到二维平面的变换。假设投影到 x y xy xy 平面上,则:
      T ( x y z ) = ( x y ) T\begin{pmatrix} x \\ y \\ z \end{pmatrix} = \begin{pmatrix} x \\ y \end{pmatrix} T xyz =(xy)
      这个变换也保持了向量加法和标量乘法的性质,因此是线性变换。

这些例子展示了线性变换如何将向量空间中的向量映射到另一个向量空间,并且不改变向量的线性结构。

相关推荐
平和男人杨争争2 小时前
机器学习2——贝叶斯理论下
人工智能·机器学习
归去_来兮2 小时前
支持向量机(SVM)分类
机器学习·支持向量机·分类
IT古董9 天前
【第二章:机器学习与神经网络概述】02.降维算法理论与实践-(1)主成分分析(Principal Component Analysis, PCA)
神经网络·算法·机器学习
大模型最新论文速读9 天前
Agent成本降低46%:缓存规划器的思路模板
人工智能·深度学习·机器学习·缓存·语言模型·自然语言处理
又南又难9 天前
【机器学习1】线性回归与逻辑回归
机器学习·逻辑回归·线性回归
老周聊大模型9 天前
7天从入门到精通:Prompt Engineering超速通指南
人工智能·机器学习
SHIPKING3939 天前
【机器学习&深度学习】机器学习核心的计算公式:wx+b
人工智能·深度学习·机器学习
王哥儿聊AI10 天前
LED-Merging: 无需训练的模型合并框架,兼顾LLM安全和性能!!
人工智能·深度学习·机器学习
杰瑞学AI10 天前
全链接神经网络,CNN,RNN各自擅长解决什么问题
人工智能·深度学习·机器学习
繢鴻10 天前
新高考需求之一
人工智能·机器学习