pytorch:debug dataLoader for循环的时候,很卡顿,进不去transform里面断点

推荐解决方案:

  • 前一进程还未处理完,又进入下一个导致互锁,在一个Epoch完了后,或者每次获取一个batch数据后停顿一下: time.sleep(0.003)
  • 内存问题,使用开关:pin_memory=True/False
  • 多进程导致互锁问题,减少进程数,或直接使用一个:num_workers=0/1
  • 使用其他DataLoader的问题,改为: from torch.utils.data.dataloader import DataLoader
  • 内存大小不够的问题:writing 8192 to /proc/sys/kernel/shmmni
  • 如果脚本中同时使用了OpenCV,可能是OpenCV与Pytorch互锁的问题。
  • 关闭OpenCV的多线程:
  • cv2.setNumThreads(0)
  • cv2.ocl.setUseOpenCL(False)
  • 是否存在打开文件未关闭的问题:[openfile].close()
相关推荐
MrSYJ4 分钟前
pyenv管理多个版本的python,你造吗?我才造
python·llm·ai编程
咕白m6255 分钟前
Python 实现 Word 到 Markdown 的转换
后端·python
极客BIM工作室6 分钟前
Gemini 3 技术细节公布:架构、能力与未公开信息汇总
人工智能·机器学习
β添砖java13 分钟前
python第一阶段第八章文件操作
开发语言·python
天才测试猿14 分钟前
树控件、下拉框、文本框常用测试用例
自动化测试·软件测试·python·功能测试·测试工具·职场和发展·测试用例
灵梦归希14 分钟前
bugku的奇怪的二维码
python
掘金一周16 分钟前
后台太多记不住?我做了一个统一门户把所有系统全串起来了| 掘金一周 12.4
人工智能·openai
shayudiandian22 分钟前
AI图像修复(Image Inpainting)实战案例
人工智能