clip_grad_norm_ 梯度裁剪

torch.nn.utils.clip_grad_norm_ 函数是用来对模型的梯度进行裁剪的。在深度学习中,经常会使用梯度下降算法来更新模型的参数,以最小化损失函数。然而,在训练过程中,梯度可能会变得非常大,这可能导致训练不稳定甚至梯度爆炸的情况。

裁剪梯度的作用是限制梯度的大小,防止它们变得过大。裁剪梯度的常见方式是通过计算梯度的范数(即梯度向量的长度),如果梯度的范数超过了设定的阈值,则对梯度向量进行缩放,使其范数等于阈值。

复制代码
torch.nn.utils.clip_grad_norm_(model.parameters(), 1.0)  

对模型的参数的梯度进行裁剪,限制其范数为1.0。这有助于防止梯度爆炸,提高训练的稳定性

深层神经网络 中常用,避免梯度爆炸

相关推荐
硅基流动3 分钟前
硅基流动上线高速版 GLM-5
人工智能
FL16238631299 分钟前
智慧医疗手术工具医疗器械检测数据集VOC+YOLO格式2273张15类别
人工智能·yolo·机器学习
何伯特9 分钟前
越野环境自动驾驶状态机:基于TinyFSM的工程实践
人工智能·机器学习·自动驾驶
laplace01239 分钟前
浮点数精度
人工智能·算法·agent·qwen
一人の梅雨10 分钟前
京东工业平台商品详情接口进阶实战:B2B采购场景适配+合规落地+多规格解析全方案
java·大数据·人工智能
Flying pigs~~11 分钟前
数据分析三剑客之Pandas
大数据·数据库·人工智能·数据分析·numpy·pandas
callJJ12 分钟前
Spring AI 语音合成(TTS)完全指南:OpenAI Text-to-Speech
java·人工智能·spring·语音识别·spring ai
诸葛务农15 分钟前
AI计算平台前沿进展:下一代AI计算平台——“OpenEmbodied AI Platform (OEAP)设计框架(2)
人工智能
诸葛务农17 分钟前
AI计算平台前沿进展:下一代AI计算平台——“OpenEmbodied AI Platform (OEAP)设计框架(1)
人工智能
Baihai IDP17 分钟前
Prompt caching 技术是如何实现 1 折的推理成本优化的?
人工智能·ai·llm