深度学习八股文:混合精度训练过程出nan怎么办

其实如果是FP32的训练,基本的调试方法还是差不多,这里就讲一下混合精度训练过程中的nan。

混合精度训练使用较低的数值精度(通常是半精度浮点数,例如FP16)来加速模型训练,但在一些情况下,可能会引发数值不稳定性的问题,导致 NaN 的出现。处理混合精度训练中的 NaN 问题时,可以考虑以下步骤:

数值检查: 在训练过程中,定期检查模型参数、梯度等是否包含 NaN 或 Inf(无穷大)值。你可以在训练循环中添加断言语句,及时发现异常值

复制代码
assert not torch.isnan(model.parameters()).any(), "Model parameters contain NaN!"

梯度缩放(Gradient Scaling): 在混合精度训练中,通常会使用梯度缩放来抵消使用较低精度带来的梯度范围减小的问题。你可以尝试调整梯度缩放的比例。

复制代码
scaler.scale(loss).backward()
scaler.step(optimizer)
scaler.update()

注意,相比与前向出nan,混合精度训练会多一个梯度缩放的过程,这个是前向没有出nan的前提下实现的,影响的梯度更新:

前向计算过程中没有nan,loss算完后,乘以scale后导致inf,这时候再往后反向传播出nan了,那在梯度更新的时候就会在梯度更新前进行数值检查,check finite and unscale过程会去检查权重的梯度发现有nan或者inf就会跳过更新,此时就可以调整scale的值,把scale降低,然后跑下一个step的前向。如果scale调整后,乘以loss,没有inf,就调成功了,继续正常更新参数,如果还是inf就得继续调小scale

相关推荐
扬帆破浪3 小时前
免费开源的AI软件怎么把企业级后端塞进单机包 察元AI三层架构总览
人工智能·架构·开源
秦ぅ时3 小时前
OpenAI API 协议实战指南:参数、响应与兼容全攻略
大数据·人工智能
沪漂阿龙3 小时前
面试题:神经网络的超参数怎么讲?层数、神经元、学习率、Batch Size、调参方向一文讲透
人工智能·深度学习·神经网络
DolphinDB智臾科技4 小时前
STAC HK 2026 回顾 | DolphinDB 构建金融级 AI-Ready 数据基建新范式
人工智能·金融
mtouch3334 小时前
三维数字沙盘智能军事标图整饰输出系统电子沙盘
人工智能·无人机·虚拟现实·电子沙盘·数字沙盘
虹科汽车电子4 小时前
自动驾驶域控开发与测试实践:虹科车载以太网方案赋能L3量产落地
人工智能·自动驾驶·车载以太网·车辆网络通讯测试·自动驾驶域控开发
Ricardo-Yang4 小时前
使用GEE以及LandSat8植被指数NDVI计算
python·深度学习·神经网络·算法·视觉检测
Derrick__14 小时前
LangChain基础实战手记:如何给大模型装上“大脑(记忆)”和“双手(工具)”?
人工智能·python·langchain·个人开发
RSTJ_16254 小时前
PYTHON+AI LLM DAY FOURTY-THREE
开发语言·人工智能·python
Volunteer Technology4 小时前
SpringAI(二)Models 模型介绍
开发语言·人工智能·python