神聖的綫性代數速成例題21. 酉空間的基本概念、酉變換與酉矩陣的性質及應用、矩陣的奇異值分解及其應用

  1. **酉空間的基本概念**:

設 \(V\) 是複數域 \(\mathbb{C}\) 上的綫性空間,對於 \(V\) 中任意兩個矢量 \(\alpha\) 和 \(\beta\),都有一個確定的複數 \((\alpha,\beta)\) 與之對應,稱為 \(\alpha\) 與 \(\beta\) 的內積,且滿足以下性質:

\((\alpha,\beta)=\overline{(\beta,\alpha)}\)(共軛對稱性),其中 \(\overline{(\beta,\alpha)}\) 表示 \((\beta,\alpha)\) 的共軛複數。 - \((k\alpha,\beta)=k(\alpha,\beta)\),\(k\in\mathbb{C}\)(數乘性)。

\((\alpha + \beta,\gamma)=(\alpha,\gamma)+(\beta,\gamma)\),\(\gamma\in V\)(線性性)。

\((\alpha,\alpha)\geq0\),且 \((\alpha,\alpha)=0\) 當且僅當 \(\alpha = 0\)(正定性)。

這樣的綫性空間 \(V\) 稱為酉空間。

矢量 \(\alpha\) 的長度(模)定義為 \(\vert\alpha\vert=\sqrt{(\alpha,\alpha)}\),兩個非零矢量 \(\alpha\) 和 \(\beta\) 的夾角 \(\theta\) 定義為 \(\cos\theta=\frac{\text{Re}((\alpha,\beta))}{\vert\alpha\vert\vert\beta\vert}\)(\(\text{Re}((\alpha,\beta))\) 表示 \((\alpha,\beta)\) 的實部),若 \((\alpha,\beta)=0\),則稱 \(\alpha\) 與 \(\beta\) 正交。

  1. **酉變換與酉矩陣的性質及應用**:

設 \(\sigma\) 是酉空間 \(V\) 的一個線性變換,若對於任意的 \(\alpha,\beta\in V\),都有 \((\sigma(\alpha),\sigma(\beta)) = (\alpha,\beta)\),則稱 \(\sigma\) 是 \(V\) 的一個酉變換。酉變換在一組標準正交基下的矩陣 \(U\) 稱為酉矩陣,酉矩陣滿足 \(U^HU = UU^H = I\)(\(U^H\) 表示 \(U\) 的共軛轉置)。

酉矩陣的列(行)向量組是標準正交向量組,酉變換保持向量的內積、長度和夾角不變,在量子力學等領域有重要應用。

  1. **矩陣的奇異值分解及其應用**:

對於任意的 \(m\times n\) 矩陣 \(A\),存在酉矩陣 \(U\)(\(m\) 階)、酉矩陣 \(V\)(\(n\) 階)和非負對角矩陣 \(\Sigma\)(\(m\times n\) 階),使得 \(A = U\Sigma V^H\),其中 \(\Sigma\) 的對角元素 \(\sigma_i\)(\(i = 1,2,\cdots,\min(m,n)\))稱為矩陣 \(A\) 的奇異值。

奇異值分解在數據壓縮、矩陣逼近、信號處理等領域有廣泛應用,例如在圖像壓縮中,可以利用奇異值分解保留主要的奇異值和對應的信息,去除次要信息,從而達到壓縮的目的。

**例題解析**:

  1. 在酉空間 \(\mathbb{C}^2\) 中,定義內積 \((\alpha,\beta)=x_1\overline{y_1}+2x_2\overline{y_2}\),其中 \(\alpha=(x_1,x_2)\),\(\beta=(y_1,y_2)\),求矢量 \(\alpha=(1,i)\) 的長度。

解:

根据矢量長度定義 \(\vert\alpha\vert=\sqrt{(\alpha,\alpha)}\)。

則 \((\alpha,\alpha)=1\times\overline{1}+2\times i\times\overline{i}=1 + 2\times i\times(-i)=1 + 2 = 3\)。

所以 \(\vert\alpha\vert=\sqrt{3}\)。

  1. 判斷矩陣 \(U = \begin{pmatrix}\frac{1}{\sqrt{2}}&\frac{i}{\sqrt{2}}\\\frac{i}{\sqrt{2}}&\frac{1}{\sqrt{2}}\end{pmatrix}\) 是否為酉矩陣。

解:

先求 \(U^H\),\(U^H = \begin{pmatrix}\frac{1}{\sqrt{2}}&-\frac{i}{\sqrt{2}}\\-\frac{i}{\sqrt{2}}&\frac{1}{\sqrt{2}}\end{pmatrix}\)。

再計算 \(U^HU\):

\(U^HU = \begin{pmatrix}\frac{1}{\sqrt{2}}&-\frac{i}{\sqrt{2}}\\-\frac{i}{\sqrt{2}}&\frac{1}{\sqrt{2}}\end{pmatrix}\begin{pmatrix}\frac{1}{\sqrt{2}}&\frac{i}{\sqrt{2}}\\\frac{i}{\sqrt{2}}&\frac{1}{\sqrt{2}}\end{pmatrix}=\begin{pmatrix}\frac{1}{2}+\frac{1}{2}&\frac{i}{2}-\frac{i}{2}\\-\frac{i}{2}+\frac{i}{2}&\frac{1}{2}+\frac{1}{2}\end{pmatrix}=\begin{pmatrix}1&0\\0&1\end{pmatrix}=I\)。

所以 \(U\) 是酉矩陣。

  1. 已知酉空間 \(\mathbb{C}^3\) 中,矢量 \(\alpha=(1,0,i)\),\(\beta=(i,1,0)\),判斷它們是否正交。

解:

計算 \((\alpha,\beta)=1\times\overline{i}+0\times\overline{1}+i\times\overline{0}=-i + 0 + 0=-i\neq0\)。

所以 \(\alpha\) 與 \(\beta\) 不正交。

  1. 求矩陣 \(A = \begin{pmatrix}1&1\\0&0\end{pmatrix}\) 的奇異值分解。

解:

先計算 \(A^HA = \begin{pmatrix}1&0\\1&0\end{pmatrix}\begin{pmatrix}1&1\\0&0\end{pmatrix}=\begin{pmatrix}1&1\\1&1\end{pmatrix}\)。

求 \(A^HA\) 的特征值:

\(\vert\lambda I - A^HA\vert = \begin{vmatrix}\lambda - 1& - 1\\ - 1&\lambda - 1\end{vmatrix}= (\lambda - 1)^2 - 1 = \lambda^2 - 2\lambda + 1 - 1 = \lambda^2 - 2\lambda = 0\)。

解得特征值 \(\lambda_1 = 2\),\(\lambda_2 = 0\)。

求特征向量:

當 \(\lambda_1 = 2\) 時,解齊次線性方程組 \((\lambda_1 I - A^HA)X = 0\),即 \(\begin{pmatrix}1& - 1\\ - 1&1\end{pmatrix}\begin{pmatrix}x_1\\x_2\end{pmatrix}=\begin{pmatrix}0\\0\end{pmatrix}\),得到特征向量 \(\xi_1 = \begin{pmatrix}1\\1\end{pmatrix}\),單位化得 \(\nu_1 = \frac{1}{\sqrt{2}}\begin{pmatrix}1\\1\end{pmatrix}\)。

當 \(\lambda_2 = 0\) 時,解齊次線性方程組 \((\lambda_2 I - A^HA)X = 0\),即 \(\begin{pmatrix}-1& - 1\\ - 1&-1\end{pmatrix}\begin{pmatrix}x_1\\x_2\end{pmatrix}=\begin{pmatrix}0\\0\end{pmatrix}\),得到特征向量 \(\xi_2 = \begin{pmatrix}1\\ - 1\end{pmatrix}\),單位化得 \(\nu_2 = \frac{1}{\sqrt{2}}\begin{pmatrix}1\\ - 1\end{pmatrix}\)。

令 \(V = \begin{pmatrix}\frac{1}{\sqrt{2}}&\frac{1}{\sqrt{2}}\\\frac{1}{\sqrt{2}}&-\frac{1}{\sqrt{2}}\end{pmatrix}\)。

奇異值 \(\sigma_1 = \sqrt{\lambda_1}=\sqrt{2}\),\(\sigma_2 = \sqrt{\lambda_2}=0\),則 \(\Sigma = \begin{pmatrix}\sqrt{2}&0\\0&0\end{pmatrix}\)。

計算 \(AV = \begin{pmatrix}1&1\\0&0\end{pmatrix}\begin{pmatrix}\frac{1}{\sqrt{2}}&\frac{1}{\sqrt{2}}\\\frac{1}{\sqrt{2}}&-\frac{1}{\sqrt{2}}\end{pmatrix}=\begin{pmatrix}\sqrt{2}&0\\0&0\end{pmatrix}\)。

取 \(U = \begin{pmatrix}1&0\\0&1\end{pmatrix}\)(因為 \(AV = U\Sigma\))。

所以 \(A\) 的奇異值分解為 \(A = U\Sigma V^H = \begin{pmatrix}1&0\\0&1\end{pmatrix}\begin{pmatrix}\sqrt{2}&0\\0&0\end{pmatrix}\begin{pmatrix}\frac{1}{\sqrt{2}}&\frac{1}{\sqrt{2}}\\\frac{1}{\sqrt{2}}&-\frac{1}{\sqrt{2}}\end{pmatrix}^H\)。

  1. 已知酉變換 \(\sigma\) 在酉空間 \(\mathbb{C}^2\) 的一組標準正交基 \(\alpha_1,\alpha_2\) 下的矩陣 \(U = \begin{pmatrix}0&i\\i&0\end{pmatrix}\),求 \(\sigma(\alpha_1 + i\alpha_2)\)。

解:

根据線性變換與矩陣的關係,\(\sigma(\alpha_1 + i\alpha_2)=\sigma(\alpha_1)+i\sigma(\alpha_2)\)。

由矩陣 \(U\) 可知 \(\sigma(\alpha_1)=0\cdot\alpha_1 + i\cdot\alpha_2 = i\alpha_2\),\(\sigma(\alpha_2)=i\cdot\alpha_1 + 0\cdot\alpha_2 = i\alpha_1\)。

所以 \(\sigma(\alpha_1 + i\alpha_2)=i\alpha_2 + i\times(i\alpha_1)=i\alpha_2 - \alpha_1=-\alpha_1 + i\alpha_2\)。

  1. 在酉空間 \(\mathbb{C}^2\) 中,定義內積如例 1 所述,求矢量 \(\alpha=(1 + i,2)\) 與 \(\beta=(1 - i,1)\) 的內積。

解:

根据內積定義 \((\alpha,\beta)=(1 + i)\times\overline{(1 - i)}+2\times2\times\overline{1}\)。

計算 \((1 + i)\times\overline{(1 - i)}=(1 + i)(1 + i)=1 + 2i + i^2 = 2i\),\(2\times2\times\overline{1}=4\)。

所以 \((\alpha,\beta)=2i + 4\)。

  1. 證明酉矩陣的行列式的模等於 \(1\)。

證明:

設 \(U\) 是酉矩陣,則 \(U^HU = I\)。

兩邊取行列式得 \(\vert U^HU\vert=\vert I\vert\)。

因為 \(\vert U^HU\vert=\vert U^H\vert\vert U\vert\),且 \(\vert U^H\vert=\overline{\vert U\vert}\)(行列式的共軛轉置等於行列式的共軛),\(\vert I\vert = 1\)。

所以 \(\overline{\vert U\vert}\vert U\vert=\vert U\vert^2 = 1\),即 \(\vert\vert U\vert\vert = 1\),也就是酉矩陣的行列式的模等於 \(1\)。

相关推荐
取个名字真难呐2 小时前
相对位置2d矩阵和kron运算的思考
人工智能·pytorch·python·深度学习·线性代数·矩阵
lwewan16 小时前
26考研——图_图的基本概念(6)
数据结构·考研
爱代码的小黄人20 小时前
矩阵指数的定义和基本性质
线性代数·矩阵
James. 常德 student1 天前
从深度学习角度看线性代数
深度学习·线性代数
lwewan1 天前
26考研——图_图的存储(6)
数据结构·笔记·考研·算法·深度优先
海海不掉头发1 天前
【考研政治】2026考研政治马原部分关键词带背 导论
人工智能·笔记·考研·考研政治
老了,不知天命2 天前
神聖的綫性代數速成例題15. 對稱矩陣、正交矩陣、二次型及其標準形
线性代数·考研·物理·筆記·數學
crescent_悦2 天前
PTA 1097-矩阵行平移
线性代数·矩阵
co0t2 天前
考研复习之队列
考研