论深度学习训练过程中数据集打乱的重要性

浅浅记录一下今天遇到的一个很有意思的问题:

今天在重新训练一个之前跑过的模型时候,突然发现训练损失一直居高不下,一直保持在0.6左右,就感觉很奇怪,为什么之前训练的时候没有问题,之前训练的时候loss是正常下降的,为什么今天重新把代码拉出来跑的时候,就出现loss不下降的问题呢?带着这个问题,我就狠狠调试,发现代码逻辑啥的都没有问题,为此调试了一整天,然后刚刚坐在实验室的时候,突然想着要不把中间结果输出看看,然后我就单独挑了几例数据训练一下,结果一看,发现我的每一个epoch加载的数据顺序是一样的,也就是说,我的DataLoader中的shuffle这个参数是False,按理来说,shuffle设置为False,也就是数据集的加载顺序不变,这应该不会影响模型的训练,确实,对于自然图像来说,由于训练集中的每张图像都是独立,所以即使数据集的加载顺序不变,也不影响模型的训练,但是,由于我研究的领域是医学图像,主要是脑肿瘤的MRI图像,一般MRI图像都是3D数据,我会把这个3D数据中沿着轴向面提取slice,这样一来,数据集之间是有内在关联的,即前后两张图片是极为相似的,所以如果此时再将shuffle设置为False的话,就会严重影响模型的训练,在我将shuffle改为True后,我的模型有可以正常训练了!

目前以上说法只是我对于这个问题的一个猜想,不确定是否正确,但是实验观察的现象确实是将shuffle改为True以后,模型就可以正常训练了。

相关推荐
云飞云共享云桌面19 小时前
佛山某机械加工设备工厂10个SolidWorks共享一台服务器的软硬件
大数据·运维·服务器·前端·网络·人工智能·性能优化
一水鉴天19 小时前
整体设计 定稿 之17 从三种“闭”概念到 色调/文字/字体 中 三种字体(宋体/斜体/粗体)
人工智能
小陈phd19 小时前
RAG从入门到精通(十四)——评估技术
人工智能·python
jerryinwuhan19 小时前
稿件整理以及意见
人工智能
懂AI的老郑19 小时前
基于多源信息融合的杂草生长中心识别与判定技术研究
人工智能
有Li19 小时前
基于几何深度学习的无监督多模态表面配准|文献速递-文献分享
人工智能·深度学习·文献
OpenCSG19 小时前
无需人类干预,300 轮自主思考!Kimi K2 Thinking 模型发布,多项基准达 SOTA
人工智能·开源·kimi·csghub
音视频牛哥19 小时前
从低延迟到高可用:RTMP与 HTTP/HTTPS-FLV在App播放体系中的角色重构
人工智能·音视频·音视频开发·http-flv播放器·https-flv播放器·ws-flv播放器·wss-flv播放器
fantasy_arch19 小时前
RNN和残差网络模型的差异
网络·人工智能·rnn
极客BIM工作室19 小时前
Google第六代Trillium TPU详解
人工智能