【神经网络核心】张量、正向传播(空间映射)、反向传播(调整映射参数)

1.张量

前面我们有一篇文章:神经网络基础---核心数据结构---张量

神经网络中的基本运算单位是张量。在学习到大模型中的Embeding技术时,才焕然大悟,现实中的一切数据,想要能够被神经网络处理和理解,都必须转为张量表示,这样它才能进入到神经网络中被处理。Embeding就是把传统的图像,文字,声音数据,转换为张量的过程。具体过程这里就不详细描述了,可以问一问AI。

简单来说,张量就是所有数据在神经网络中的抽象表示方法。对于不懂神经网络的人来说,当他看到计算机能够识别图像,理解文字,真的会有一种神奇的感觉。但是对懂的人来说,其实计算机只是在进行张量计算,借助训练后的神经网络,计算机的输出非常逼近人类的思考,这种逼近就是神经网络的核心能力。

2.正向传播(空间映射)

神经网络就是一个输入输出系统,输入的张量最后会转换为输出张量。输入张量和输出张量的形状没有必然关系。这可不就是将输入张量通过神经网络这个张量映射工具映射成输出张量吗?

假设输入张量是一束光,那么神经网路就是一个复杂的透镜系统,透镜的输出是五彩斑斓的,经过变换的光线。

以传统的图像分类任务为例。图像分类任务就是将某N张图像归为M类的映射过程。整个映射过程不需要人工去设置参数,而是通过反向传播自动调整的,因为神经网络的可塑性非常强。

3.反向传播(调整映射参数)

反向传播(梯度下降)就是调整映射参数,减少误差的过程,相当于调整神经网络这个透镜系统的透镜的角度、位置、折射率等等非常多的参数,形成一个非常复杂的映射系统。

4. 总结

我认为这三点最能描述神经网络的工作原理,在众多的专业词汇中找到核心要素,防止迷失方向。

相关推荐
China_Yanhy13 小时前
生产笔记:AI 集群的极致成本与数据保命指南
人工智能·笔记
快乐非自愿13 小时前
AI 赋能微服务工程化:Surging Engine-CLI 的插件化 Agent 架构革新
人工智能·微服务·架构
JavaGuide13 小时前
太魔幻了!SpaceX官宣600 亿美元收购Agent编程的鼻祖Cursor
人工智能·后端
独隅13 小时前
EasyOCR跨框架部署:从PyTorch到TensorFlow Lite的转换全面指南
人工智能·pytorch·tensorflow
派拉软件13 小时前
从 IAM 到 AAM,重构 AI Agent 时代的访问控制体系
大数据·人工智能·网络安全·重构·iam·身份与访问控制·aam
SteveSenna13 小时前
Pika数据采集与处理
人工智能·学习
用户2235862182013 小时前
Subagent 不是函数 - claude_0x06
人工智能
kunlong_luo13 小时前
用 200 行 Python 搭一个全本地 RAG:一次笔记本工程师的踩坑实录
人工智能
前端74113 小时前
Cursor 被 SpaceX 盯上了:600 亿美元买的不是编辑器,是你的键盘
人工智能
俊哥V13 小时前
每日 AI 研究简报 · 2026-04-23
人工智能·ai