论深度学习训练过程中数据集打乱的重要性

浅浅记录一下今天遇到的一个很有意思的问题:

今天在重新训练一个之前跑过的模型时候,突然发现训练损失一直居高不下,一直保持在0.6左右,就感觉很奇怪,为什么之前训练的时候没有问题,之前训练的时候loss是正常下降的,为什么今天重新把代码拉出来跑的时候,就出现loss不下降的问题呢?带着这个问题,我就狠狠调试,发现代码逻辑啥的都没有问题,为此调试了一整天,然后刚刚坐在实验室的时候,突然想着要不把中间结果输出看看,然后我就单独挑了几例数据训练一下,结果一看,发现我的每一个epoch加载的数据顺序是一样的,也就是说,我的DataLoader中的shuffle这个参数是False,按理来说,shuffle设置为False,也就是数据集的加载顺序不变,这应该不会影响模型的训练,确实,对于自然图像来说,由于训练集中的每张图像都是独立,所以即使数据集的加载顺序不变,也不影响模型的训练,但是,由于我研究的领域是医学图像,主要是脑肿瘤的MRI图像,一般MRI图像都是3D数据,我会把这个3D数据中沿着轴向面提取slice,这样一来,数据集之间是有内在关联的,即前后两张图片是极为相似的,所以如果此时再将shuffle设置为False的话,就会严重影响模型的训练,在我将shuffle改为True后,我的模型有可以正常训练了!

目前以上说法只是我对于这个问题的一个猜想,不确定是否正确,但是实验观察的现象确实是将shuffle改为True以后,模型就可以正常训练了。

相关推荐
bst@微胖子2 分钟前
PyTorch深度学习框架项目合集一
人工智能·pytorch·python
Axis tech2 分钟前
Xsens动作捕捉系统采集用于人形机器人AI大数据训练的精确运动数据
人工智能·深度学习·机器人
哔哩哔哩技术6 分钟前
视频生成推理加速实践:基于全局时间索引的序列并行 3D 位置编码优化
人工智能
KG_LLM图谱增强大模型8 分钟前
AI临床决策助手实战:基于真实临床场景的交互式可解释 AI智能体系统研究
人工智能·知识图谱
极新12 分钟前
AI赋能品牌IP展望 | 2026智造新IP峰会圆桌对话实录
人工智能·品牌ip
deephub22 分钟前
LLM创造力可以被度量吗?一个基于提示词变更的探索性实验
人工智能·prompt·大语言模型
无心水23 分钟前
2025,一路有你!
java·人工智能·分布式·后端·深度学习·架构·2025博客之星
前沿在线23 分钟前
从一颗螺丝到整个身体:动易科技在广州,把AI的“未来蓝图”刻进现实 | 前沿在线
人工智能·科技·机器人
贺卫国25 分钟前
NanoBot 向量记忆系统升级实现重要记忆用不丢失
人工智能
minhuan29 分钟前
大模型应用:小样本学习的高性价比:轻量算法做基底,大模型做精修.84
人工智能·大模型应用·混元大模型·小样本分类算法·情感分析任务