先导工作:配置pytorch环境,最好针对一个模型,配置一个虚拟环境(env)。具体方法详见:配置pytorch环境,并调试YOLO-CSDN博客.
一、测试(以YOLOv5为例,调用其中的detect.py及某训练好的模型文件)
1. 直接在 PyCharm Terminal 终端中运行 python detect.py --weights yolov5s.pt --source 0 #对摄像头实时视频进行检测。
2. 也可在Anaconda prompt 终端中输入 conda activate yolov5,激活之前配置的yolov5环境。
通过 CD,切换到 YOLOv5 路径后,运行
python detect.py --weights yolov5s.pt --source 0 #对摄像头实时视频进行检测。
- 语法备注:
Usage - sources:
$ python detect.py --weights yolov5s.pt --source 0 # webcam
img.jpg # image
vid.mp4 # video
screen # screenshot
path/ # directory
list.txt # list of images
list.streams # list of streams
'path/*.jpg' # glob
'https://youtu.be/LNwODJXcvt4' # YouTube
'rtsp://example.com/media.mp4' # RTSP, RTMP, HTTP stream
通过 ctrl + C,退出当前python执行的程序。通过conda deactivate 退出当前环境,返回base.
- 也可以通过新建或打开一个测试脚本如:Yolov5test.py, 直接运行进行测试。如脚本中的内容为:
from ultralytics import YOLO
yolo = YOLO("./yolov5s.pt",task="detect")
result = yolo(source="E:/pro/yolov5-master/data/images/bus.jpg") #也可以输入视频进行检测 或 摄像头(source = 0)检测
# python 中文件路径,windows系统可用 \\ 两个反斜杠,或者/ 一个正斜杠(所有系统)。
#result = yolo(source=0)
result[0]
说明: 运行该脚本时,需要配置**解释器(run中的Edit Configuration里的Interpreter)为 当前虚拟环境内的解释器,即 本例为"**python3.10(yolov5)"
参见: yolov5的环境配置和基本使用_yolov5环境配置-CSDN博客
二、训练 (以YOLOv5为例,调用其中的train.py及某预训练好的模型文件)
-
数据标注
-
数据集划分
-
模型设置
-
模型训练
参见: c使用yolov5训练模型_yolo5 模型如何训练-CSDN博客
https://blog.csdn.net/xuherui123456/article/details/152665702