clip_grad_norm_ 梯度裁剪

torch.nn.utils.clip_grad_norm_ 函数是用来对模型的梯度进行裁剪的。在深度学习中,经常会使用梯度下降算法来更新模型的参数,以最小化损失函数。然而,在训练过程中,梯度可能会变得非常大,这可能导致训练不稳定甚至梯度爆炸的情况。

裁剪梯度的作用是限制梯度的大小,防止它们变得过大。裁剪梯度的常见方式是通过计算梯度的范数(即梯度向量的长度),如果梯度的范数超过了设定的阈值,则对梯度向量进行缩放,使其范数等于阈值。

复制代码
torch.nn.utils.clip_grad_norm_(model.parameters(), 1.0)  

对模型的参数的梯度进行裁剪,限制其范数为1.0。这有助于防止梯度爆炸,提高训练的稳定性

深层神经网络 中常用,避免梯度爆炸

相关推荐
逐米时代1 天前
四川制造企业智改数转怎么申报?本地化AI项目落地一般分5步
大数据·人工智能
weixin_553654481 天前
有没有一种可能,现在的大语言模型已经发展得接近极限了?
人工智能·语言模型·大模型
GISer_Jing1 天前
基于 GitHub Actions 端到端工程化落地——AI全栈项目实战案例
人工智能·github
图灵农场1 天前
SpringAI实用-RAG
人工智能
LienJack1 天前
AI 架构设计有点菜,我写了个 Skill 给它补课
人工智能·架构
人工智能AI技术1 天前
循环结构基础:for、while、递归性能对比
人工智能
盼小辉丶1 天前
PyTorch强化学习实战(5)——PyTorch Ignite 事件驱动机制与实践
人工智能·pytorch·python·强化学习
eastyuxiao1 天前
思维导图拆解项目范围 3 个真实落地案例
大数据·运维·人工智能·流程图
风落无尘1 天前
《智能重生:从垃圾堆到AI工程师》——第五章 代码与灵魂
服务器·网络·人工智能