深度学习-梯度消失和梯度爆炸

梯度消失

在某些神经网络中,随着网络深度的增加,梯度在隐藏层反向传播时倾向于变小,这就意味着,前面隐藏层中的神经元要比后面的学习起来更慢,这种现象就叫做"梯度消失";

梯度爆炸

如果我们进行一些特殊的调整(比如初始权重很大),可以让梯度反向传播时不会明显减小,从而解决梯度消失的问题;然而这样一来,前面层的梯度又会变得非常大,引起网络不稳定,无法再从训练数据中学习,这种现象又叫做"梯度爆炸"。

为了让深度神经网络的学习更加稳定、高效,我们需要考虑进一步改进寻找最优参数的方法,以及如何设置参数初始值、如何设定超参数;此外还应该解决过拟合的问题。

相关推荐
Ronin-Lotus2 小时前
模型训练与部署注意事项篇---resize
人工智能·深度学习·计算机视觉
我爱一条柴ya3 小时前
【AI大模型】LLM模型架构深度解析:BERT vs. GPT vs. T5
人工智能·python·ai·ai编程
Coovally AI模型快速验证3 小时前
从FCOS3D到PGD:看深度估计如何快速搭建你的3D检测项目
人工智能·深度学习·神经网络·yolo·3d·cnn
kikikidult6 小时前
Ubuntu20.04运行openmvg和openmvs实现三维重建(未成功,仅供参考)
人工智能·笔记·ubuntu·计算机视觉
189228048617 小时前
NW728NW733美光固态闪存NW745NW746
大数据·服务器·网络·人工智能·性能优化
大模型最新论文速读7 小时前
模拟注意力:少量参数放大 Attention 表征能力
人工智能·深度学习·机器学习·语言模型·自然语言处理
lishaoan778 小时前
用TensorFlow进行逻辑回归(二)
人工智能·tensorflow·逻辑回归
慌ZHANG8 小时前
智慧气象新范式:人工智能如何重构城市级气象服务生态?
人工智能
Eumenidus8 小时前
使用ESM3蛋白质语言模型进行快速大规模结构预测
人工智能·语言模型·自然语言处理