【西瓜书】神经网络-BP算法(反向传播算法)

系列文章目录

【西瓜书】神经网络-MP神经元、感知机和多层网络https://blog.csdn.net/jiangshuiy/article/details/144070587


目录

系列文章目录

误差逆传播算法(BP算法、反向传播算法)

累积误差逆传播算法

BP训练

最小值与极小值


误差逆传播算法(BP算法、反向传播算法)

  • 误差逆传播(error BackPropagation,简称BP)算法,也叫反向传播算法,是解决多层网络的杰出代表。
  • 值得指出的是,BP算法不仅可用于++多层前馈神经网络++,还可以用于其他类型的神经网络。

来自西瓜书-P102

  • 约定记号:

    • 神经网络的输出:
    • 均方误差为:
  • BP算法是一个迭代学习算法。在迭代的每一轮中采用广义的感知机学习规则对参数进行更新估计,任意参数v的更新估计算式为:

  • BP算法基于梯度下降(gradient descent)策略,以目标的负梯度方向对参数进行调整。对误差E_k,给定学习率η,有

    • 根据"链式法则",有
    • 根据定义(见图):
    • Sigmoid函数的性质:
    • 因此:
    • 可得:
  • 类似可得:

  • 其中,

  • 学习率 η∈(0, 1) 控制着算法每一轮迭代中的更新步长,若太大则容易震荡,太小则收敛速度又会过慢。

  • BP算法的目标是要最小化训练集D上的累计误差:

  • "标准BP算法"每次仅针对一个训练样例更新连接权和阈值。

累积误差逆传播算法

  • 如果推导出基于累积误差最小化的更新规则,就是累积误差逆传播(accumulated error backpropagation)算法。两种算法都很常用。

BP训练

  • 读取训练集一遍,称为进行了"一轮"(one round,也叫 one epoch)学习。
  • 标准BP算法和累积BP算法的区别类似于随机梯度下降与标准梯度下降之间的区别。
  • 如何设置隐藏神经元的个数,是个未决问题。实际应用中通常用"试错法"(trial-by-error)调整。
  • 由于其强大的表示能力,BP神经网络经常遭遇过拟合,其训练误差持续降低,但测试误差却可能上升。有两种策略常用来缓解BP网络的过拟合:
    • 第1种:"早停"(early stop),将数据分成训练集和验证集,训练集用来计算梯度、更新连接权和阈值,验证集用来估计误差,若训练集误差降低但验证集误差升高,则停止训练,同时返回具有最小验证集误差的连接权和阈值。
    • 第2种:"正则化"(regularization),基本思想是在误差目标函数中增加一个用于描述网络复杂度的部分。例如连接权与阈值的平方和。增加连接权与阈值平方和这一项后,训练过程将会偏好比较小的连接权和阈值,使网络输出更加"光滑",从而对过拟合有所缓解。
  • 神经网络的训练过程可看作一个参数寻优过程,即在参数空间中寻找一组最优参数,使得E最小。

最小值与极小值

  • 两种最优:"局部极小"(local minimum)和"全局最小"(global minimum)。直观的看,
    • 局部极小点,是参数空间中的某个点,其邻域点的误差函数值均不小于该点的函数值;
    • 全局最小解,则是指参数空间中所有点的误差函数值均不小于该点的误差函数值。
    • 全局最小一定是局部极小,反之则不成立。
  • 在参数寻优过程中,希望找到全局最小。
  • 基于梯度的搜索是使用最为广泛的参数寻优方法。
    • 从某些初始解出发,迭代寻找最优参数值。
    • 每次迭代中,先计算误差函数在当前的梯度,然后根据梯度确定搜索方向。例如由于负梯度方向是函数值下降最快的方向,因此梯度下降法就是沿着负梯度方向搜索最优解。若误差函数在当前点的梯度为0,则已达到局部极小,更新量降为0,这意味着参数的迭代更新将因此停止。
  • 如果有多个极小值,就称参数寻优陷入局部极小。
  • 现实任务中常使用以下策略来跳出局部极小:
    • 以多种不同参数值初始化多个神经网络,按标准方法训练后,取其中误差最小的解作为最终参数。这相当于从多个不同的初始点开始搜索。
    • 使用"模拟退火"(simulated annealing)技术。模拟退火在每一步都有一定概率接受比当前解更差的结果,从而有助于"跳出"局部极小。但是也会造成跳出全局最小。
    • 使用梯随机梯度下降(stochastic gradient descent,简称SGD),随机梯度下降法在计算梯度时加入了随机因素,因此即便陷入局部极小点,计算出来的梯度仍然可能不为零,这就有机会跳出。
    • 遗传算法(genetic algorithms)也常用来训练神经网络,以更好的逼近全局最小。
    • 上述跳出局部极小的技术大多是启发式,理论上常缺乏保障。
相关推荐
寒月霜华37 分钟前
机器学习-数据标注
人工智能·机器学习
九章云极AladdinEdu2 小时前
超参数自动化调优指南:Optuna vs. Ray Tune 对比评测
运维·人工智能·深度学习·ai·自动化·gpu算力
Hello_Embed2 小时前
STM32HAL 快速入门(二十):UART 中断改进 —— 环形缓冲区解决数据丢失
笔记·stm32·单片机·学习·嵌入式软件
咸甜适中2 小时前
rust语言 (1.88) 学习笔记:客户端和服务器端同在一个项目中
笔记·学习·rust
人工智能训练师3 小时前
Ubuntu22.04如何安装新版本的Node.js和npm
linux·运维·前端·人工智能·ubuntu·npm·node.js
Grassto3 小时前
RAG 从入门到放弃?丐版 demo 实战笔记(go+python)
笔记
Magnetic_h4 小时前
【iOS】设计模式复习
笔记·学习·ios·设计模式·objective-c·cocoa
cxr8284 小时前
SPARC方法论在Claude Code基于规则驱动开发中的应用
人工智能·驱动开发·claude·智能体
研梦非凡4 小时前
ICCV 2025|从粗到细:用于高效3D高斯溅射的可学习离散小波变换
人工智能·深度学习·学习·3d
幂简集成5 小时前
Realtime API 语音代理端到端接入全流程教程(含 Demo,延迟 280ms)
人工智能·个人开发