基于cuda12.6训练yolov5模型
前面完成了使用CPU调用yolov5s模型进行识别车辆,现在想训练自己的模型进行目标识别,使用CPU效率太低,尝试使用GPU加速的Pytorch
,再重新整理了一下完整的流程
-
注:
- 显卡:RTX 2050
- cuda:NVIDIA CUDA 12.7.33
-
最后完成了一个识别doro头像的模型:

GitHub开源地址 :https://github.com/ChengYull/YOLOv5-CUDA12_6-Training
环境部署
Anaconda环境
Anaconda 是一个用于数据科学和机器学习的开源 Python 发行版本,它简化了包管理和环境管理。可以创建隔离的 Python 环境,避免包冲突。
- 隔离的Python环境非常重要,因为在训练时用到的图片标注工具需要Python3.9版本,而进行训练时用的是Python3.10版本
前往官网下载最新版即可:https://www.anaconda.com/download/
安装完成后使用win+r
输入cmd
打开命令行,输入conda --version
命令
如果成功获取到了版本,说明安装成功
如果提示找不到conda
命令,则需要手动配置下环境变量
找到系统变量中的Path
,然后下Anaconda
安装目录中的condabin
目录添加进去
确定关闭环境变量窗口后,新开命令行重新输入conda --version
命令 应当是能获取到对应安装的版本
至此Anaconda环境配置完成
- 常用命令
- 创建环境:
conda create -n 环境名 python=版本号
- 激活环境:
conda activate 环境名
- 删除环境:
conda env remove --name 环境名
- 创建环境:
环境配置完成,顺便创建虚拟环境
命令行输入:
conda create -n doro python=3.10
创建环境
创建完成,在conda根目录的env文件夹下也会生成对应环境名的文件夹
激活环境
conda activate doro

Pytorch环境
这里已经决定使用GPU,需要查看显卡的cuda版本,安装对应支持的cuda版本,再安装对应的Pytorch版本
cuda安装
打开英伟达控制面板,电脑任务栏搜索可以直接搜索NVIDIA Contol Panel
打开
找到系统信息
找到cuda版本信息
这里我的版本是12.7.33
,也就是安装的cuda版本要小于等于12.7.33
打开cuda的下载地址:https://developer.nvidia.com/cuda-toolkit-archive
这里我选择了12.6.0
版本
这里选择的网络版下载
注意可以选择自定义(精简默认安装C盘)
第一次安装尽量全选
等待下载安装
安装完成后,查看环境变量Path
,确定安装完成
打开命令行,运行nvcc --version
即可查看版本号
安装成功
cuDNN安装
cuDNN(CUDA Deep Neural Network Library)是 NVIDIA 官方推出的 GPU 加速深度学习库,专为深度神经网络(DNN)计算优化,支持 CNN(卷积神经网络)、RNN(循环神经网络)、Transformer 等模型的训练和推理加速。
cuDNN需要登录英伟达账户才能下载,没有直接注册即可
下载地址:https://developer.nvidia.com/rdp/cudnn-download
同上选择自定义 全选
记住安装目录
安装完成后打开对应目录
将bin、include、lib文件夹拷贝到cuda的安装目录下
查看环境变量中是否配置了这4项(若没有则补上)
cuDNN安装完成
Pytorch安装
打开Pytorch官网:https://pytorch.org/
往下滑找到下图模块,选择对应的版本(cuda12.6不支持Conda安装 仅能使用pip安装)复制安装命令
cuda12.6版本的Pytorch,清华镜像源暂时没更新,使用清华镜像会下载cpu版本,所以只能使用源地址下载,大概要下载两个小时
注意要在激活对应的Conda环境下运行命令
等待下载完成
完成后可以前往Pycharm中验证是否能够调用到GPU
新建项目,选择基础conda(在自定义环境中conda无法选取我们创建的安装Pytorch的虚拟环境)
创建后,进入设置-项目-Python解释器,修改环境为安装Pytorch的环境
创建程序 验证
代码:
import torch
flag = torch.cuda.is_available()
print(flag)
ngpu = 1
# Decide which device we want to run on
device = torch.device("cuda:0" if (torch.cuda.is_available() and ngpu > 0) else "cpu")
print(device)
print(torch.cuda.get_device_name(0))
print(torch.rand(3, 3).cuda())
成功调用到GPU
至此所有环境配置完成
训练集准备
labelImg图片标注工具安装
给图片标注构造训练集,用于训练模型,由于在Python3.10环境下,labelImg软件存在闪退问题,这里使用Conda为LabelImg创建一个新的Python3.9环境
conda create -n label python=3.9
注意先激活环境再安装LabelImg
conda activate label
安装LabelImg
conda install pyqt labelimg

找到创建的环境目录,找到Scrip文件夹
打开界面如下
可以参考一下我的设置
注意:save下方一定要选择yolo模型,否则标注保存的文件是xml文件而非txt文件
标注图片
创建一个单独的文件夹,我这里命名train,再在里面创建两个文件夹(images、labels)以及一个yaml文件(doro.yaml)
yaml文件内容:
# train and val data as 1) directory: path/images/, 2) file: path/images.txt, or 3) list: [path1/images/, path2/images/]
train: ../train/images/
val: ../train/images/
# number of classes
nc: 1
# class names
names: ['doro']
准备好用于训练的图片,我这里是在网上下载的表情包,大概有五十多张,放到刚刚创建的images文件夹中
打开LabelImg,选择打开文件夹
选择保存文件夹位置
设置一下label名称,就无需手动输入了
按键w
可以快捷创建选框,按键A
和D
是切换上下张图片
完成后在labels文件夹下就会出现标注的内容
至此训练集准备完成
模型训练
yolov5模型源码部署
Github仓库获取yolov5源码:https://github.com/ultralytics/yolov5
这里我使用的是Pycharm克隆项目
将对应地址填入克隆配置中
克隆完成如图
同上设置Python解释器
安装依赖
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

安装完成后测试运行(第一次运行会自动下载yolov5s.pt
模型)
python detect.py --weights yolov5s.pt --source data/images/bus.jpg

在runs目录如果可以查看到运行结果,说明运行正常
训练
这里为了方便,将之前创建的train文件夹(存放训练集)移动到项目中
在目录中创建src
文件夹,用于存放自己的代码
配置训练参数(数据集路径需要改为对应的yaml文件路径)
from train import parse_opt, main
import torch
# 在训练前清理GPU缓存
torch.cuda.empty_cache()
def custom_train():
opt = parse_opt()
opt.data = "../train/doro.yaml" # 数据集路径
opt.weights = "../yolov5s.pt" # 权重文件
opt.imgsz = 640 # 图像尺寸
opt.batch_size = 8 # 批量大小
opt.epochs = 100 # 训练轮次
opt.nosave = False # 允许保存检查点
opt.save_period = 20 # 每20轮保存一次
opt.cache = True # 启用数据缓存
opt.device = "0" # 使用GPU 0(若为CPU则设为"cpu")
opt.lr0 = 0.01 # 初始学习率
# 启动训练
main(opt)
if __name__ == "__main__":
custom_train()
其中图像尺寸imgsz
和批量大小batch_size
要根据显存配置,如果训练过程中出现torch.OutOfMemoryError: CUDA out of memory
,试着将其适当调小
如果多次修改无果,可以试着重启电脑(亲测有效)
训练正式开始,等待100轮的训练
训练完成后,在runs
文件夹下可以找到训练好的模型文件(如果不想保存中间生成的模型文件,可以在训练参数将opt.nosave = True
改为True,删掉opt.save_period = 20
配置)
测试模型
这里使用openCV
来读取视频来识别作为测试
import cv2
import torch
# 读取视频
video_path = "../testVideo/doro3.mp4"
cap = cv2.VideoCapture(video_path)
# 加载训练的模型
model = torch.hub.load('../../test_doro', 'custom', path='../runs/train/exp/weights/best.pt', source='local')
# 检查视频是否成功打开
if not cap.isOpened():
print("无法打开视频文件")
exit()
# 播放视频
while True:
ret, frame = cap.read()
if not ret:
break
# 模型推理
results = model(frame)
# 获取预测结果
for pred in results.pred[0]:
x1, y1, x2, y2, conf, cls = pred.tolist()
class_name = model.names[int(cls)]
# 输出结果
print(f"检测到:{class_name}, 置信度:{conf:.2f}")
cv2.rectangle(frame, (int(x1), int(y1)), (int(x2), int(y2)), (0, 255, 0), 2)
cv2.putText(frame, f"{class_name} {conf:.2f}", (int(x1), int(y1) - 10),
cv2.FONT_HERSHEY_SIMPLEX, 0.9, (0, 255, 0), 2)
# 显示当前帧
cv2.imshow("Video", frame)
# 按下 'q' 键退出
if cv2.waitKey(1) & 0xFF == ord('q'):
break
# 释放视频捕获对象和关闭所有窗口
cap.release()
cv2.destroyAllWindows()
这里发现能够成功识别,且效果还行,但是发现控制台有一行警告信息,非常影响观感
根据提示,找到models
目录下的common.py
文件,搜索 with amp.autocast(autocast):
将其替换为:
with torch.amp.autocast("cuda",enabled=autocast):
这里有两处:分别在879行和906行
再次运行测试代码,警告消失