训练深度学习模型的提速方法

复制代码
1. nw = min([os.cpu_count() // max(nd, 1), batch_size if batch_size > 1 else 0, workers]) 

在PyTorch数据加载配置中,nw 通常代表数据加载器(DataLoader)的工作进程数(num_workers),用于控制数据预取的并行度。表达式 nw = min([os.cpu_count() // max(nd, 1), batch_size if batch_size > 1 else 0, ...]) 是一个常见的动态设置逻辑,旨在根据系统资源和训练配置自动优化 num_workers 的值。‌

该表达式通过最小值函数综合多个约束条件: ‌ 首先,os.cpu_count() // max(nd, 1) 计算可用逻辑CPU核心数,其中 nd 通常表示分布式训练的设备数(如GPU数量),若 nd 为0则默认使用全部核心,这避免了多进程数据加载与模型训练争夺CPU资源;其次,batch_size if batch_size > 1 else 0num_workers 限制为 batch_size(当 batch_size 大于1时),因为小批量(如 batch_size=1)时多进程可能引入额外开销。实际代码中常包含更多约束,例如限制 num_workers 不超过某个值(如8)或根据显存容量调整,以平衡数据加载速度与系统稳定性。

  1. 修改训练命令中的 workers 参数: 可以为CPU核心数的1.5倍,对应数据加载进程数。

例如:python train.py --data coco.yaml --epochs 300 --batch-size 64 --workers 12

  1. tils/dataloaders.pycreate_dataloader函数(第160行),创建数据加载器时设置num_workers。

默认为 nw = min([os.cpu_count() // max(nd, 1), batch_size if batch_size > 1 else 0, workers]) # 自动计算worker数

并确保pin_memory=True(第67行全局设置),可减少CPU到GPU的数据传输延迟。

4. 自动批处理大小

通过--batch-size -1让系统自动计算最佳批处理大小。

例如:python train.py --data coco.yaml --epochs 300 --batch-size -1

原理是:

原理是train.py第243行调用的check_train_batch_size函数,会通过内存测试找到最大可行批大小:

if RANK == -1 and batch_size == -1: # single-GPU only

batch_size = check_train_batch_size(model, imgsz, amp)

  1. 使用 NVIDIA-SMI 命令,实时查看训练程序时的gpu占用率

nvidia-smi dmon

从任务管理器,查看CPU利用率。

参考:超实用!YOLOv5 GPU利用率提升指南:从50%到95%的实战技巧-CSDN博客

https://blog.csdn.net/gitblog_00918/article/details/151241012

相关推荐
臭东西的学习笔记1 天前
论文学习——机器学习引导的蛋白质工程
人工智能·学习·机器学习
大王小生1 天前
说说CSV文件和C#解析csv文件的几种方式
人工智能·c#·csv·csvhelper·csvreader
m0_462605221 天前
第G3周:CGAN入门|生成手势图像
人工智能
bubiyoushang8881 天前
基于LSTM神经网络的短期风速预测实现方案
人工智能·神经网络·lstm
中烟创新1 天前
烟草专卖文书生成智能体与法规案卷评查智能体获评“年度技术最佳实践奖”
人工智能
得一录1 天前
大模型中的多模态知识
人工智能·aigc
Github掘金计划1 天前
Claude Work 开源平替来了:让 AI 代理从“终端命令“变成“产品体验“
人工智能·开源
ghgxm5201 天前
Fastapi_00_学习方向 ——无编程基础如何用AI实现APP生成
人工智能·学习·fastapi
就这个丶调调1 天前
VLLM部署全部参数详解及其作用说明
深度学习·模型部署·vllm·参数配置
余俊晖1 天前
3秒实现语音克隆的Qwen3-TTS的Qwen-TTS-Tokenizer和方法架构概览
人工智能·语音识别