MIT_线性代数笔记:复习二

目录

第二单元主要内容

  1. 正交矩阵 Q,用矩阵形式描述正交性质。

投影矩阵 P,最小二乘法,在方程无解时求"最优解"。 Gram-Schmidt 正交化------从任意一组基得到标准正交基,策略是从向量

中减去投影到其它向量方向的分量。

  1. 行列式 det(A)

    三个性质定义了行列式,可以推导出之后的性质 4~10。

    行列式展开公式包含 n!个非零项,一半取+,一半取-。

    代数余子式公式,以及推导出逆矩阵公式 A − 1 = 1 d e t ( A ) C T A^{−1}= \frac{1}{det(A)}C^T A−1=det(A)1CT

  2. 特征值 Ax = λx

    det(A-λI)=0

    对角化:如果矩阵 A 包含 n 个线性无关的特征向量,可以对角化得到 S − 1 A S = Λ S^{-1}AS=Λ S−1AS=Λ

    矩阵 A 的幂: A k = ( S Λ S − 1 ) k = S Λ k S − 1 A^k=(SΛS^{-1})^k=SΛ^kS^{-1} Ak=(SΛS−1)k=SΛkS−1

例题

1、a = [ 2 1 2 ] \begin{bmatrix} 2\\1\\2 \end{bmatrix} 212

a)求投影到向量 a 方向的投影矩阵 P。

解: P = A ( A T A ) − 1 A T P=A(A^TA)^{-1}A^T P=A(ATA)−1AT,这里 a 是向量,因此有
P = a a T a T a = 1 9 [ 4 2 4 2 1 2 4 2 4 ] P= \frac{aa^T}{a^Ta}=\frac{1}{9} \begin{bmatrix} 4 & 2 & 4 \\ 2 & 1 & 2 \\ 4 & 2 & 4 \end{bmatrix} P=aTaaaT=91 424212424

b)求矩阵 P 的秩

解:矩阵的秩为 1,因为所有的列都是第二列的倍数。或者从投影矩阵投影的空间是 1 维可以判断出来。

c)矩阵 P 的列空间?

解:向量 a 所在的直线。

d)矩阵 P 的特征值?

解:矩阵的秩为 1,因此存在重特征值 0,再从矩阵的迹可以得到另一个特征值为 1。即特征值为 1,0,0。

e)求矩阵 P 对应特征值 1 的特征向量?

解:因为矩阵 P 为投影矩阵,在投影空间中的向量就是对应特征值 1 的特征向量,因此 a 就是对应的特征向量。

f)若有 u k + 1 = P u k u_{k+1}=Pu_k uk+1=Puk,且有初值 u0= [ 9 9 0 ] \begin{bmatrix} 9\\9\\0 \end{bmatrix} 990 求 uk?

解:重复将一个向量投影到一条直线,从第二次开始投影结果即不发生变化。
u k = P k u 0 = P u 0 = a T u 0 a T a = 3 a = [ 6 3 6 ] uk=P^ku_0=Pu_0= \frac{a^Tu_0}{a^Ta}=3a=\begin{bmatrix} 6\\3\\6 \end{bmatrix} uk=Pku0=Pu0=aTaaTu0=3a= 636

g)测验中可能出现 u k + 1 = A u k u_k+1=Au_k uk+1=Auk,其中的矩阵 A 不是投影矩阵,没有投影矩阵的性质 P k u 0 = P u 0 P^ku_0= Pu_0 Pku0=Pu0,此时需要求矩阵的特征值和特征向量。
u 0 = c 1 x 1 + c 2 x 2 + c 3 x 3 u_0=c_1x_1+c_2x_2+c_3x_3 u0=c1x1+c2x2+c3x3

则 u k = c 1 λ 1 k x 1 + c 2 λ 2 k x 2 + c 3 λ 3 k x 3 uk=c_1λ_1^kx_1+c_2λ_2^k x_2+c_3λ_3^kx_3 uk=c1λ1kx1+c2λ2kx2+c3λ3kx3

对于投影矩阵而言, λ 1 = 1 , λ 2 = λ 3 = 0 λ_1=1,λ_2=λ_3=0 λ1=1,λ2=λ3=0。因此有 u 1 = u 2 = u 3 = ... ... u_1=u_2=u_3=...... u1=u2=u3=......

  1. 已知以下数据点
t y
1 4
2 5
3 8

a)求利用三个数据点拟合过原点的一条直线 y=Dt?

解: [ 1 2 3 ] D = [ 4 5 8 ] \begin{bmatrix} 1\\2\\ 3 \end{bmatrix}D=\begin{bmatrix} 4\\5\\ 8 \end{bmatrix} 123 D= 458 ,我们求解的问题就是求方程的最优解 Dˆ 。
A T A D ˆ = A T b A^TA Dˆ =A^Tb ATADˆ=ATb。 解得 Dˆ =19/7。因此直线解析式为 y=(19/7)t。

b)怎样从投影来理解这个问题?

解:对于最小二乘问题有两种理解方法。其中一种是找到平面内最优的一条直线。另一种是将 b = [ 4 5 8 ] b=\begin{bmatrix} 4\\5\\ 8 \end{bmatrix} b= 458 投影到 A 的列空间,来得到最接近于 Ax=b 的解。

  1. 向量 a 1 = [ 1 2 3 ] a_1=\begin{bmatrix} 1\\2\\ 3 \end{bmatrix} a1= 123 和 a 2 = [ 1 1 1 ] a_2=\begin{bmatrix} 1\\1\\ 1 \end{bmatrix} a2= 111 向量确定了一个平面,找到该平面的一组正交基。

    解:应用 Gram-Shmidt 正交化方法。取 a1为第一个方向,找出垂直于该方向的向量 B。策略就是在 a2中减掉它在 a1方向上的分量,得到完全垂直于 a1的部分:
    B = a 2 − a 1 T a 2 a 1 T a 1 a 1 = [ 4 / 7 1 / 7 − 2 / 7 ] B= a_2 - \frac{a_1^Ta_2}{a_1^Ta_1}a_1 =\begin{bmatrix} 4/7\\1/7\\ -2/7 \end{bmatrix} B=a2−a1Ta1a1Ta2a1= 4/71/7−2/7

  2. 已知一个 4 阶方阵 A 具有特征值λ1,λ2,λ3,λ4。

    a)特征值需要满足什么条件才能保证 A 为可逆矩阵。

    解:当且仅当矩阵的特征值均不为 0 的时候,A 为可逆矩阵。若有特征值 0 存在,则矩阵零空间有非零向量,矩阵不可逆。

    b)求逆矩阵行列式的值?

    解: A − 1 A^{-1} A−1的特征值为 A 特征值的倒数。因此 d e t ( A − 1 ) = 1 λ 1 1 λ 2 1 λ 3 1 λ 4 det(A^{-1})= \frac{1}{λ_1}\frac{1}{λ_2}\frac{1}{λ_3}\frac{1}{λ_4} det(A−1)=λ11λ21λ31λ41

    c)求(A+I )的迹?

    解:矩阵的迹等于其特征值的和,(A+I)的特征值为 λ 1 + 1 , λ 2 + 1 , λ 3 + 1 , λ 4 + 1 λ_1+1,λ_2+1,λ_3+1,λ_4+1 λ1+1,λ2+1,λ3+1,λ4+1,则该矩阵的迹为 λ 1 + λ 2 + λ 3 + λ 4 + 4 λ_1+λ_2+λ_3+λ_4+4 λ1+λ2+λ3+λ4+4。

  3. 已知三对角矩阵:
    A 4 = [ 1 1 0 0 1 1 1 0 0 1 1 1 0 0 1 1 ] A_4=\begin{bmatrix} 1 & 1 & 0 & 0 \\ 1 & 1 & 1 & 0 \\ 0 & 1 & 1 & 1 \\ 0 & 0 & 1 & 1 \end{bmatrix} A4= 1100111001110011

    令 D n = d e t ( A n ) D_n=det(A_n) Dn=det(An)

    a)用代数余子式的方法求出 D n = a D n − 1 + b D n − 2 D_n=aD_{n-1}+bD_{n-2} Dn=aDn−1+bDn−2中的 a,b?

    解:用代数余子式可得 D4=(1)D3+(-1)D2。

    b)利用找到的递归方程 D n = a D n − 1 + b D n − 2 D_n=aD_{n-1}+bD_{n-2} Dn=aDn−1+bDn−2,求 D n D_n Dn?

    解:把它当作方程组来求解,我们首先解得初值 D1=1,D2=0。

    按照递归方程构造 2 阶线性方程:
    [ D n D n − 1 ] = [ 1 − 1 1 0 ] [ D n − 1 D n − 2 ] \begin{bmatrix}D_n\\D_{n-1} \end{bmatrix} = \begin{bmatrix} 1&-1\\1&0 \end{bmatrix}\begin{bmatrix}D_{n-1}\\D_{n-2} \end{bmatrix} [DnDn−1]=[11−10][Dn−1Dn−2]

    求解矩阵的特征值可得: λ = 1 ± 3 i 2 = e ± i π 3 λ = \frac{1±\sqrt{3}i}{2}=\frac{e±iπ}{3} λ=21±3 i=3e±iπ,均为模为 1 的复数,在单位圆上旋转。可以看到 λ 1 6 = λ 2 6 = 1 λ_1^6=λ_2^6=1 λ16=λ26=1,矩阵经六次变换变为单位阵。该序列既不发散也不收敛,数列以 6 次为重复周期不停循环,1,0,-1,0,1,1。

  4. 有一组对称矩阵:
    A 2 = [ 0 1 1 0 ] A 3 = [ 0 1 0 1 0 2 0 2 0 ] A 4 = [ 0 1 0 0 1 0 2 0 0 2 0 3 0 0 3 0 ] A_2=\begin{bmatrix} 0 & 1 \\ 1 & 0 \end{bmatrix}A_3=\begin{bmatrix} 0 & 1 & 0 \\ 1 & 0 & 2 \\ 0 & 2 & 0 \end{bmatrix}A_4=\begin{bmatrix} 0 & 1 & 0 & 0 \\ 1 & 0 & 2 & 0 \\ 0 & 2 & 0 & 3 \\ 0 & 0 & 3 & 0 \end{bmatrix} A2=[0110]A3= 010102020 A4= 0100102002030030

a)找到投影到矩阵 A3列空间的投影矩阵 P。

解:矩阵 A3为奇异阵,其第 3 列列向量为第 1 列的 3 倍,而第 1,2 列线性无关,因此其列空间为一个平面,取其前两列列向量组成矩阵 A,则有
P = A ( A T A ) − 1 A T = [ 1 / 5 0 2 / 5 0 1 0 2 / 5 0 4 / 5 ] P=A(A^TA)^{-1}A^T=\begin{bmatrix} 1/5 & 0 & 2/5 \\ 0 & 1 & 0 \\ 2/5 & 0 & 4/5 \end{bmatrix} P=A(ATA)−1AT= 1/502/50102/504/5

可以通过将矩阵 A3的列向量乘以投影矩阵来验证这一结果,在平面内的向量投影后应该不发生变化。

b)求 A3的特征值和特征向量?

解: d e t ( A 3 − λ I ) = ∣ − λ 1 0 1 − λ 2 0 2 − λ ∣ = − λ 3 + 5 λ = 0 det(A_3-λI)=\begin{vmatrix} -λ & 1& 0\\1& -λ& 2\\0&2&-λ \end{vmatrix} =-λ^3+5λ =0 det(A3−λI)= −λ101−λ202−λ =−λ3+5λ=0

解得三个特征值,λ1=0,λ2= 5 \sqrt{5} 5 ,λ3= − 5 -\sqrt{5} −5 。可用矩阵的迹做检查。

求解( A 3 − λ I A_3-λI A3−λI)x=0,可得特征向量 x 1 = [ − 2 0 1 ] , x 2 = [ 1 − 5 2 ] , x 3 = [ 1 5 2 ] x_1=\begin{bmatrix} -2\\0\\1 \end{bmatrix},x_2=\begin{bmatrix} 1\\ -\sqrt{5} \\2\end{bmatrix},x_3=\begin{bmatrix} 1\\ \sqrt{5} \\2 \end{bmatrix} x1= −201 ,x2= 1−5 2 ,x3= 15 2

c)找到投影到矩阵 A4列空间的投影矩阵 P?

解:因为 A 4 A_4 A4为可逆矩阵,所以它的列空间就是整个 R 4 R_4 R4空间,所以 P=I。而可逆矩阵的证明可以采用求行列式的办法,用代数余子式展开可得 d e t ( A 4 ) = 9 det(A_4)=9 det(A4)=9。

相关推荐
Nu11PointerException1 小时前
JAVA笔记 | ResponseBodyEmitter等异步流式接口快速学习
笔记·学习
亦枫Leonlew2 小时前
三维测量与建模笔记 - 3.3 张正友标定法
笔记·相机标定·三维重建·张正友标定法
考试宝2 小时前
国家宠物美容师职业技能等级评价(高级)理论考试题
经验分享·笔记·职场和发展·学习方法·业界资讯·宠物
Power20246663 小时前
NLP论文速读|LongReward:基于AI反馈来提升长上下文大语言模型
人工智能·深度学习·机器学习·自然语言处理·nlp
数据猎手小k3 小时前
AndroidLab:一个系统化的Android代理框架,包含操作环境和可复现的基准测试,支持大型语言模型和多模态模型。
android·人工智能·机器学习·语言模型
sp_fyf_20244 小时前
计算机前沿技术-人工智能算法-大语言模型-最新研究进展-2024-11-01
人工智能·深度学习·神经网络·算法·机器学习·语言模型·数据挖掘
黑叶白树4 小时前
简单的签到程序 python笔记
笔记·python
知来者逆4 小时前
研究大语言模型在心理保健智能顾问的有效性和挑战
人工智能·神经网络·机器学习·语言模型·自然语言处理
老艾的AI世界5 小时前
新一代AI换脸更自然,DeepLiveCam下载介绍(可直播)
图像处理·人工智能·深度学习·神经网络·目标检测·机器学习·ai换脸·视频换脸·直播换脸·图片换脸
幸运超级加倍~5 小时前
软件设计师-上午题-15 计算机网络(5分)
笔记·计算机网络