深度学习踩坑记录

深度学习踩坑记录

在跑一个深度学习的项目的时候,为了计算每个epoch的Loss,肯定要把每个batch_size的loss给加起来,就会有类似如下的代码

python 复制代码
train_loss += loss

是的当时手抖,忘了是loss.item(),代码也能正常运行,也能正常算,并且每一步需要跑的时间也是一样的,但是这样会导致每一步的内存都是叠加的。并且这种占显存的方式你在nvidia-smi还看不出来,得去htop里面看,一看好家伙,显存占的高的离谱,正常来说我就占4个G,他占了十几个G,当时就感觉不对劲了,后面发现这叫显存泄露

总而言之言而总之,如果你直接+loss,也能跑,结果也是一样的,但是这就会导致需要的内存一步步的叠加,我是跑到10几个epoch的时候莫名其妙被killed了,去查了一下是out of memory的问题,刚开始还以为是别的因素,后面才发现是我的问题T T

相关推荐
这张生成的图像能检测吗6 分钟前
(论文速读)MoNet:统一图与流形上的几何深度学习
人工智能·深度学习·计算机视觉·图神经网络
wzy-66610 分钟前
TurboQuant 背后 JL 引理的故事
人工智能
Dontla27 分钟前
kiro介绍(亚马逊AI Agent 集成开发环境(Agentic IDE))(Specs规范驱动开发、需求驱动开发、Spec模式)对标Cursor、Claude Code
人工智能
老刘说AI27 分钟前
浅谈多模态领域的Transformer
人工智能·深度学习·神经网络·机器学习·语言模型·transformer
大囚长41 分钟前
AI安全研究员现状
人工智能·安全
冰西瓜6001 小时前
深度学习的数学原理(二十五):缩放点积注意力
人工智能·深度学习
泰恒1 小时前
学习神经网络
人工智能·深度学习·机器学习
Spey_Events1 小时前
首发定档!2026中国航空维修制造及航材供应链展览会将于10 月在上海举办!
人工智能·制造
DeepModel1 小时前
机器学习非线性降维:局部线性嵌入 LLE
人工智能·机器学习
lUie INGA2 小时前
rust web框架actix和axum比较
前端·人工智能·rust