1.张量
前面我们有一篇文章:神经网络基础---核心数据结构---张量。
神经网络中的基本运算单位是张量。在学习到大模型中的Embeding技术时,才焕然大悟,现实中的一切数据,想要能够被神经网络处理和理解,都必须转为张量表示,这样它才能进入到神经网络中被处理。Embeding就是把传统的图像,文字,声音数据,转换为张量的过程。具体过程这里就不详细描述了,可以问一问AI。
简单来说,张量就是所有数据在神经网络中的抽象表示方法。对于不懂神经网络的人来说,当他看到计算机能够识别图像,理解文字,真的会有一种神奇的感觉。但是对懂的人来说,其实计算机只是在进行张量计算,借助训练后的神经网络,计算机的输出非常逼近人类的思考,这种逼近就是神经网络的核心能力。
2.正向传播(空间映射)
神经网络就是一个输入输出系统,输入的张量最后会转换为输出张量。输入张量和输出张量的形状没有必然关系。这可不就是将输入张量通过神经网络这个张量映射工具映射成输出张量吗?
假设输入张量是一束光,那么神经网路就是一个复杂的透镜系统,透镜的输出是五彩斑斓的,经过变换的光线。
以传统的图像分类任务为例。图像分类任务就是将某N张图像归为M类的映射过程。整个映射过程不需要人工去设置参数,而是通过反向传播自动调整的,因为神经网络的可塑性非常强。
3.反向传播(调整映射参数)
反向传播(梯度下降)就是调整映射参数,减少误差的过程,相当于调整神经网络这个透镜系统的透镜的角度、位置、折射率等等非常多的参数,形成一个非常复杂的映射系统。
4. 总结
我认为这三点最能描述神经网络的工作原理,在众多的专业词汇中找到核心要素,防止迷失方向。