不管是图形还是AI,如果看过相关的算法,都会注意到矩阵运算,很多讲算法的教程都会说将for转换成矩阵,可以极大的增加效率。
但是这不是为难我们这些数学低能儿吗?矩阵运算这些高级货算是高级数学了,比CURD还是难多了。今天还是抽时间来看看。
其实就我来看,计算机懂个P的高等数学,什么线性代数,概率,微积分,对于计算机来说都没有意义,没有意义,没有意义。计算机懂得就是1+1=10。但是在实践中,很多算法一旦上了矩阵,就跟开了外挂一样,速度飞快,这个又是什么原因呢?难道真的计算机上了大学,学了高等数学?我觉得不是,原因还是和计算机中CPU的特性有关。要知道背后的原理,还是得从汇编着手。
(因为最近实在忙,目前的代码来自GPT,感觉不是很准,后面有时间会更新)
for的汇编:
section .text
global for_loop
for_loop:
push ebp
mov ebp, esp
mov ecx, [ebp+8] ; 循环计数器的上限
mov eax, 0 ; 初始化计数器
loop_start:
; 这里执行循环体的操作
inc eax ; 计数器加一
cmp eax, ecx ; 比较计数器和上限
jl loop_start ; 如果计数器小于上限,则继续循环
pop ebp
ret
在 for 循环中,每次迭代都需要执行比较和条件跳转操作,以及计数器的增加操作。这意味着每次循环迭代都会有额外的指令开销和跳转开销。
矩阵的汇编(这里我是觉得没说全,应该涉及到_mm256_dp_ps这些指令):
section .text
global matrix_multiply
matrix_multiply:
push ebp
mov ebp, esp
; 这里执行矩阵乘法的操作
pop ebp
ret
而在矩阵运算中,尤其是矩阵乘法,通常会使用更多的向量化指令和并行化技术。这使得矩阵运算可以更有效地利用处理器的并行性和向量化能力,从而减少了指令级别的开销。
总的来说:
矩阵运算涉及大量的数据并行处理,可以更好地利用现代处理器的并行性能。矩阵运算通常涉及大规模的数据集,这意味着可以更好地利用处理器的缓存系统和数据局部性。矩阵运算往往可以通过优化算法和数据访问模式来提高计算效率,例如分块矩阵乘法、缓存优化等。
另外一方面可以掰扯的就是计算机历史了。我自己买入的第一台计算机是MMX166,应该是97年。当时牛逼吹的非常响,说什么多媒体CPU,然后我就稀里糊涂买了。MMX是什么呢?MMX 指令集包括一系列针对整数运算和 SIMD(Single Instruction, Multiple Data,单指令,多数据)操作的指令。这些指令允许处理器同时对多个数据元素执行相同的操作,从而实现更高的数据吞吐量和更高的性能。MMX 指令集主要用于处理像素、音频和视频数据等多媒体应用程序。
这里又要说说图形,音视频的数据的一些特点了,这些数据就是矩阵运算的最好示范,现在的CPU架构中,为了加速这些运算,所以进行了很多特别的优化,比如超线程,SIMD等等。所以说计算机并不是天生就擅长矩阵运算,而是之前环境中,为了加速多媒体的处理,大神们在CPU中做了很多针对矩阵运算的强化和优化。相当于体系中有了一条高速的特别通道。
所以回到现在,为了使用这个特别通道,将很多运算写成矩阵运算的形式,就可以大大的加速。此外,很多AI算法本身从数学上来说也是矩阵运算,这个就更合适了。所以这里也解释了为什么GPU更适合处理AI算法,因为GPU本身是用来处理图像的,就是矩阵运算,从设计之初就这样考虑的。后面误打误撞发现也很适合干AI,所以直接原地起飞,这个就是另外的一个故事了。
简而言之,在现在的CPU体系中,使用矩阵运算,可以更贴近现在的架构,比如Cache的结构,SIMD的指令集以及一些其它指令集。所以会觉得速度很快。
当然,也是看优化,如果说一个编译器能自动把多层的for优化到底,也是性能不会比矩阵运算差,就看有没有大神愿意出来干这事了。
参考: