线性代数 - 应该学啥 以及哪些可以交给计算机

AI很热,所以小伙伴们不免要温故知新旧时噩梦 - 线代。

(十几年前,还有一个逼着大家梦回课堂的风口,图形学。)

这个真的不是什么美好的回忆,且不说老师的口音,也不说教材的云山雾绕,单单是求解这件事情,你直接用python的numpy的lin-alg来做,它不香吗?

(matlab其实更好,还可以看动画,不过动辄几十个G,然后价格/破解也劝退,非专业选手装属实蛋疼,国内专业选手还在被禁止使用)

掰着手指头数一数,最烦的几种题型,其实都是可以一行搞定的 -

行列式计算 秩的计算 -

复制代码
det = numpy.linalg.det(a)
rank = numpy.linalg.rank(a)

向量点乘 叉乘 -

复制代码
#内积 面积
muti_dot = numpy.dot(b, a)
#外积 法向量
muti_cross = numpy.cross(b, a)

矩阵求逆 -

复制代码
inv = numpy.inv(a)

特征根与特征向量 -

复制代码
x1,x2 = numpy.linalg.eig(a)

还免费附赠求解方程 -

复制代码
x = numpy.linalg.solve(A, b)

数学学习,最核心的是理解定义。最可惜的是教材上的所有重要的定义,几乎不是给正常地球人看的,不说是线性无关,至少也是驴唇不对马嘴。对于智商摸到天顶星的大神当然是无所谓,因为你把教材上的公式留下就够了,但是对于我等资质平庸者,那就是天坑,一见误终身那种。

拜托,一个工科生,学的目的不就是,3种分解拆吧拆吧,然后理解/优化算法?

复制代码
#奇异值分解 对角阵
u,sigma,v = numpy.linalg.svd(A)

#QR分解 正规正交阵-上三角阵
q,r = numpy.linalg.qr(A)

#LU分解/Cholesky分解 下三角阵-上三角阵
l = numpy.linalg.cholesky(A)

线代学习中,我认为最核心最提纲挈领的几个点 -

第一个,数组(行m),向量(列n),与矩阵(mxn)的关系,其实一个式子就够(矩阵和向量相乘,也就是我们常见的解方程组的样式) (借用神图)-

额,这个图目的不是,计算机可以用它来解方程了!当然,用计算机解方程这点也很重要。

画重点!线性变换的概念就是从这里面出来的。对于矩阵A,用一个n维的向量x乘它,就是对于这个矩阵本身的线性变换。也是从这里,线性代数被引入了工程。

第二个,矩阵分块和零矩阵。所有变换技巧的基础,就是适当分块,然后构造零子矩阵。各路大神们按照自己的需要和喜欢,整出了不同的分解方法,用来算相关性,推荐歌曲和商品,算pagerank,预测概率,等等等等等。比如,存入计算机的数据是稀疏矩阵,如果不把这些0踢出来,未经优化的数据直接参与运算,强如老黄的GPU,也得直接算的冒烟冒火吐了跪了。比如,不同的技巧对应不同的算法,同一个问题,算法的复杂度,区别天渊。

第三个,对角阵。这个是理解维数,坐标的基础,并且进一步可以扩张向量空间。

当然,对于科班生,每一个看似自然的定理,弄清背后的证明花的时间都远超前面这些。

统计是数据,图像是数据,海量的数据只能交给计算机,计算机理解相关性,唯一的方式就是靠矩阵(填格子得到)和线性代数。这也就从另一个方面说明了,IT的风口为啥总是要大家温书。假如十年后再来一个风口,大概率大家还是要一脑袋往线代上扎!

PS - 如果觉得不好,请告诉作者改进;如果觉得好,请推荐给你的小伙伴。

相关推荐
phoenix@Capricornus1 天前
二次型 → 矩阵的正定性 → 特征值
线性代数·矩阵
闻缺陷则喜何志丹2 天前
【数学 线性代数】差分约束
c++·线性代数·数学·差分约束·负环最短路
Mryan20052 天前
NumPy系列 - 创建矩阵
数据结构·python·线性代数·矩阵·numpy
wblong_cs2 天前
《交互式线性代数》
线性代数·矩阵
今天吃什么了3 天前
计算两个矩阵的乘积
线性代数·算法·矩阵
不忘不弃3 天前
矩阵的转置
线性代数·算法·矩阵
odoo中国4 天前
深度学习 Deep Learning 第2章 线性代数
人工智能·深度学习·线性代数
优维科技EasyOps4 天前
QKV矩阵:优维大模型自注意力机制的数学之美
线性代数·矩阵
WBingJ4 天前
深度学习基础:线性代数的本质1——深入理解向量
线性代数·算法·机器学习
极客 - L U5 天前
数学 :矩阵
线性代数·矩阵