政安晨:【深度学习神经网络基础】(十)—— 反向传播网络中计算输出节点增量与计算剩余节点增量

目录

简述

二次误差函数

交叉熵误差函数

计算剩余节点增量


政安晨的个人主页:政安晨****

欢迎 👍点赞✍评论⭐收藏

收录专栏: 政安晨的机器学习笔记

希望政安晨的博客能够对您有所裨益,如有不足之处,欢迎在评论区提出指正!

简述

为神经网络中的每个节点(神经元)计算一个常数值。我们将从输出节点开始,然后逐步通过神经网络反向传播。"反向传播"一词就来自这个过程。我们最初计算输出神经元的误差,然后通过神经网络向后传播这些误差。节点增量是我们将为每个节点计算的值。层增量也描述了该值,因为我们可以一次计算一层的增量。在计算输出节点或内部节点时,确定节点增量的方法可能会有所不同。首先计算输出节点,并考虑神经网络的误差函数。

在深度学习的反向传播网络中,计算输出节点增量(即输出误差)和计算剩余节点增量使用的是反向传播算法。

该算法首先计算输出节点增量。输出节点的增量是通过将网络的实际输出与期望输出之间的误差传播回网络中来计算的。具体来说,通过使用损失函数(如均方差误差函数)来计算网络的误差,然后将这个误差从输出层传播回隐藏层。根据链式法则,输出节点增量可以通过乘以导数(激活函数的导数)和误差传播的方式计算出来。

接下来,使用输出节点的增量来计算剩余节点的增量。剩余节点的增量是通过将输出节点的增量传播回隐藏层来计算的。具体来说,根据链式法则,剩余节点的增量可以通过将输出节点的增量乘以权重矩阵的转置并乘以隐藏层节点的导数来计算。

通过反向传播算法,可以计算出网络中所有节点的增量,从而根据这些增量来更新网络的权重和偏差,进一步优化网络的性能。

二次误差函数

神经网络的程序员经常使用二次误差函数。实际上,你可以在网络上找到许多使用二次误差函数的示例。如果你正在阅读一个示例程序,但未提及具体的误差函数,那么该程序可能使用了二次误差函数,也称为MSE函数,我们在前文"训练和评估"中讨论过。

下面公式展示了MSE函数:

下面公式将神经网络的实际输出(y)与预期输出(y^)进行了比较。变量n为训练元素的数量乘以输出神经元的数量。MSE将多个输出神经元处理为单个输出神经元的情况。

下面公式展示了使用二次误差函数的节点增量:

二次误差函数非常简单,因为它取了神经网络的预期输出与实际输出之间的差。′表示激活函数的导数。

交叉熵误差函数

二次误差函数有时可能需要很长时间才能正确调整权重。下面公式展示了交叉熵误差(Cross-entropy Error,CE)函数:

如下面公式所示,采用交叉熵误差函数的节点增量计算要比采用MSE函数简单得多。

交叉熵误差函数通常会比二次误差函数结果更好,因为二次误差函数会为误差创建一个陡峭的梯度。我们推荐采用交叉熵误差函数。

计算剩余节点增量

既然已经根据适当的误差函数计算了输出节点的增量,我们就可以计算内部节点的增量,如下公式所示:

我们将为所有隐藏和无偏置神经元计算节点增量,但无须为输入和偏置神经元计算节点增量。即使我们可以使用上面公式轻松计算输入和偏置神经元的节点增量,梯度计算也不需要这些值。你很快会看到,权重的梯度计算仅考虑权重所连接的神经元。偏置和输入神经元只是连接的起点,它们从来不是终点。


相关推荐
福客AI智能客服1 天前
从被动响应到主动赋能:家具行业客服机器人的革新路径
大数据·人工智能
司南OpenCompass1 天前
衡量AI真实科研能力!司南科学智能评测上线
人工智能·多模态模型·大模型评测·司南评测
罗宇超MS1 天前
如何看待企业自建AI知识库?
人工智能·alm
土星云SaturnCloud1 天前
液冷“内卷”:在局部优化与系统重构之间,寻找第三条路
服务器·人工智能·ai·计算机外设
智界前沿1 天前
集之互动AI创意视频解决方案:商业级可控,让品牌创意从“灵感”直达“落地”
人工智能·aigc
baby_hua1 天前
20251024_PyTorch深度学习快速入门教程
人工智能·pytorch·深度学习
brave and determined1 天前
CANN训练营 学习(day9)昇腾AscendC算子开发实战:从零到性能冠军
人工智能·算法·机器学习·ai·开发环境·算子开发·昇腾ai
SelectDB1 天前
Apache Doris 4.0.2 版本正式发布
数据库·人工智能
Solar20251 天前
TOB企业智能获客新范式:基于数据驱动与AI的销售线索挖掘与孵化架构实践
人工智能·架构