卷积神经网络 反向传播

误差的计算

softmax

经过softmax处理后所有输出节点概率和为1

损失(激活函数)

多分类问题:输出只可能归于某一个类别,不可能同时归于多个类别。

误差的反向传播

求w的误差梯度

权值的更新

首先是更新 输出层和隐藏层之间的权重 。更新权重,我们首先需要知道损失梯度损失梯度实际上是损失根据所需要的更新的权重求偏导 ,而要求解这个偏导,我们要通过链式法则来求解。成功求解损失梯度后,要通过梯度下降 的方法来更新我们的权重。这里的损失梯度前面的系数,我们称之为学习率 ,直观意义去理解实际上就是步长

这个参数是我们人为调整的,但是学习率不宜过大,也不易过小。过大可能会导致损失无法收敛,过小可能会导致损失收敛的速度过慢,或者会陷入局部最优解的问题中。因此学习率我们不能随意取值,需要通过后续不断地迭代,来获取最优学习率。

接着我们需要进一步更新我们的隐藏层和输入层之间的权重,对于这里的损失梯度,我们同样是通过链式法则得到损失梯度的表达式,过程基本与前面保持一致。但是这里有两个注意点,第一,这里通过链式法则最后得到的损失梯度的结果会用到我们前面更新过的权重,所以说反向传播的顺序是不可逆的。第二,对与隐藏层和输入层之间权重的更新是多个损失项更新的叠加。通过上述的推到过程,我们可以求得我们所需的损失梯度,得到损失梯度后,通过梯度下降,我们可以得到隐藏层和输入层之间更新后的权重。

至此,我们已经完成了通过误差的反向传播实现了一次完整的权重的更新。后面的过程就是在正向传播更新输出,然后再反向更新权重,循环迭代,直到损失收敛或者是达到设定的迭代次数,一次神经网络的训练完成。

优化器

使网络更快地得到收敛

相关推荐
大模型真好玩2 分钟前
LangChain1.0实战之多模态RAG系统(四)——Trae Solo搭建部署多模态RAG前端(附AI编程实践指南)
人工智能·langchain·trae
hrrrrb6 分钟前
【深度学习】自动微分模块
人工智能·深度学习
m0_635129268 分钟前
卷积神经网络
人工智能
深蓝海拓13 分钟前
用于优化和改进YOLO11的一些方法
人工智能·python·yolo·机器学习
外参财观19 分钟前
会员制大考:盒马交卷离场,山姆答题艰难
大数据·人工智能
多恩Stone20 分钟前
【3DV 进阶-10】Trellis 中的表示 SLat 理解(1)
人工智能·python·算法·3d·aigc
共绩算力21 分钟前
深度代理如何利用文件系统进行上下文工程
人工智能·共绩算力
饭饭大王66623 分钟前
深度学习的伦理困局与偏见消解:从技术反思到实践路径
人工智能·深度学习
roman_日积跬步-终至千里28 分钟前
【计算机视觉(3)】图像滤波基础篇:从概念到应用
图像处理·人工智能·计算机视觉
高洁0130 分钟前
循环神经网络讲解
人工智能·python·神经网络·机器学习·transformer