线性代数 - 应该学啥 以及哪些可以交给计算机

AI很热,所以小伙伴们不免要温故知新旧时噩梦 - 线代。

(十几年前,还有一个逼着大家梦回课堂的风口,图形学。)

这个真的不是什么美好的回忆,且不说老师的口音,也不说教材的云山雾绕,单单是求解这件事情,你直接用python的numpy的lin-alg来做,它不香吗?

(matlab其实更好,还可以看动画,不过动辄几十个G,然后价格/破解也劝退,非专业选手装属实蛋疼,国内专业选手还在被禁止使用)

掰着手指头数一数,最烦的几种题型,其实都是可以一行搞定的 -

行列式计算 秩的计算 -

det = numpy.linalg.det(a)
rank = numpy.linalg.rank(a)

向量点乘 叉乘 -

#内积 面积
muti_dot = numpy.dot(b, a)
#外积 法向量
muti_cross = numpy.cross(b, a)

矩阵求逆 -

inv = numpy.inv(a)

特征根与特征向量 -

x1,x2 = numpy.linalg.eig(a)

还免费附赠求解方程 -

x = numpy.linalg.solve(A, b)

数学学习,最核心的是理解定义。最可惜的是教材上的所有重要的定义,几乎不是给正常地球人看的,不说是线性无关,至少也是驴唇不对马嘴。对于智商摸到天顶星的大神当然是无所谓,因为你把教材上的公式留下就够了,但是对于我等资质平庸者,那就是天坑,一见误终身那种。

拜托,一个工科生,学的目的不就是,3种分解拆吧拆吧,然后理解/优化算法?

#奇异值分解 对角阵
u,sigma,v = numpy.linalg.svd(A)

#QR分解 正规正交阵-上三角阵
q,r = numpy.linalg.qr(A)

#LU分解/Cholesky分解 下三角阵-上三角阵
l = numpy.linalg.cholesky(A)

线代学习中,我认为最核心最提纲挈领的几个点 -

第一个,数组(行m),向量(列n),与矩阵(mxn)的关系,其实一个式子就够(矩阵和向量相乘,也就是我们常见的解方程组的样式) (借用神图)-

额,这个图目的不是,计算机可以用它来解方程了!当然,用计算机解方程这点也很重要。

画重点!线性变换的概念就是从这里面出来的。对于矩阵A,用一个n维的向量x乘它,就是对于这个矩阵本身的线性变换。也是从这里,线性代数被引入了工程。

第二个,矩阵分块和零矩阵。所有变换技巧的基础,就是适当分块,然后构造零子矩阵。各路大神们按照自己的需要和喜欢,整出了不同的分解方法,用来算相关性,推荐歌曲和商品,算pagerank,预测概率,等等等等等。比如,存入计算机的数据是稀疏矩阵,如果不把这些0踢出来,未经优化的数据直接参与运算,强如老黄的GPU,也得直接算的冒烟冒火吐了跪了。比如,不同的技巧对应不同的算法,同一个问题,算法的复杂度,区别天渊。

第三个,对角阵。这个是理解维数,坐标的基础,并且进一步可以扩张向量空间。

当然,对于科班生,每一个看似自然的定理,弄清背后的证明花的时间都远超前面这些。

统计是数据,图像是数据,海量的数据只能交给计算机,计算机理解相关性,唯一的方式就是靠矩阵(填格子得到)和线性代数。这也就从另一个方面说明了,IT的风口为啥总是要大家温书。假如十年后再来一个风口,大概率大家还是要一脑袋往线代上扎!

PS - 如果觉得不好,请告诉作者改进;如果觉得好,请推荐给你的小伙伴。

相关推荐
DogDaoDao8 小时前
【预备理论知识——2】深度学习:线性代数概述
人工智能·深度学习·线性代数
winds~11 小时前
数学基础-向量投影
线性代数
roman_日积跬步-终至千里1 天前
【线性代数】【第一章】行列式习题
线性代数
sml_54211 天前
【笔记】连续、可导、可微的概念解析
笔记·线性代数
海涛高软1 天前
osg 矩阵相关
线性代数·矩阵
herobrineAC2 天前
以矩阵的视角解多元一次方程组——矩阵消元
线性代数·矩阵
annesede3 天前
线性代数复习笔记
笔记·线性代数
正义的彬彬侠4 天前
单位向量的定义和举例说明
人工智能·线性代数·机器学习·矩阵
脑子不好真君4 天前
线性代数书中求解齐次线性方程组、非齐次线性方程组方法的特点和缺陷(附实例讲解)
人工智能·线性代数·算法
雷达学弱狗5 天前
波动方程(将麦克斯韦方程组求出只有E或H的表达式)
线性代数·算法·机器学习