【神经网络核心】张量、正向传播(空间映射)、反向传播(调整映射参数)

1.张量

前面我们有一篇文章:神经网络基础---核心数据结构---张量

神经网络中的基本运算单位是张量。在学习到大模型中的Embeding技术时,才焕然大悟,现实中的一切数据,想要能够被神经网络处理和理解,都必须转为张量表示,这样它才能进入到神经网络中被处理。Embeding就是把传统的图像,文字,声音数据,转换为张量的过程。具体过程这里就不详细描述了,可以问一问AI。

简单来说,张量就是所有数据在神经网络中的抽象表示方法。对于不懂神经网络的人来说,当他看到计算机能够识别图像,理解文字,真的会有一种神奇的感觉。但是对懂的人来说,其实计算机只是在进行张量计算,借助训练后的神经网络,计算机的输出非常逼近人类的思考,这种逼近就是神经网络的核心能力。

2.正向传播(空间映射)

神经网络就是一个输入输出系统,输入的张量最后会转换为输出张量。输入张量和输出张量的形状没有必然关系。这可不就是将输入张量通过神经网络这个张量映射工具映射成输出张量吗?

假设输入张量是一束光,那么神经网路就是一个复杂的透镜系统,透镜的输出是五彩斑斓的,经过变换的光线。

以传统的图像分类任务为例。图像分类任务就是将某N张图像归为M类的映射过程。整个映射过程不需要人工去设置参数,而是通过反向传播自动调整的,因为神经网络的可塑性非常强。

3.反向传播(调整映射参数)

反向传播(梯度下降)就是调整映射参数,减少误差的过程,相当于调整神经网络这个透镜系统的透镜的角度、位置、折射率等等非常多的参数,形成一个非常复杂的映射系统。

4. 总结

我认为这三点最能描述神经网络的工作原理,在众多的专业词汇中找到核心要素,防止迷失方向。

相关推荐
chatexcel10 小时前
AI知识库教程:基于ChatExcel实现规则文档、Excel数据与业务分析联动
人工智能·excel
Hali_Botebie10 小时前
【图卷积网络】GCN是AXΘ 和CNN是AX
网络·人工智能·cnn
还在忙碌的吴小二10 小时前
今日AI行业热点新闻
人工智能
Bode_200210 小时前
AIoT 技术难点
人工智能·制造
deming_su11 小时前
AI产品架构师核心理论知识点文档
人工智能
XD74297163611 小时前
科技晚报|2026年5月13日:AI 开始补全库审查、移动入口和弹性调度
人工智能·科技·开发者工具·科技晚报
卷Java11 小时前
2026年4月AI军备竞赛全景:DeepSeek V4 vs GPT-5.5 vs Gemini vs Claude
人工智能·gpt·大模型
人月神话-Lee11 小时前
【图像处理】亮度与对比度——图像的线性变换
图像处理·人工智能·ios·ai编程·swift
啦啦啦_999911 小时前
0. 深度学习课程大纲:
深度学习
shchojj11 小时前
Generative AI applications -- Chatting
人工智能