YOLO11追踪简单应用

准备工作,需要下载一下yolo模型,我这里用的时yolo11,下载链接Ultralytics YOLO11 - Ultralytics YOLO 文档

将上面的文件放到文件夹里,并用vscode打开,为该项目创建自己的虚拟环境 crtl+shift+p

选择刚才创建的虚拟环境,进入终端安装所需要的包

复制代码
pip install torch torchvision torchaudio
pip install ultralytics
pip install opencv-python
pip install pyautogui
pip install lap>=0.5.12

新建一个track.py文件对视频进行抽帧处理

复制代码
import cv2 as cv
from ultralytics import YOLO
from time import sleep
rec = cv.VideoCapture('rec.mp4')
i=0
while True:
    r,f = rec.read()
    if not r:
        print('没有更多的帧了')
        break
    if cv.waitKey(1)==ord('q'):
        print('您按了q键')
        break
    #实际操作
    i += 1
    if i % 25 == 0:
        cv.imwrite(f'{i}.jpg',f)
    
rec.release()
cv.destroyAllWindows()

对抽帧的图片进行统一改名,改名网址Rename - 批量文件重命名工具

对图片进行标注 详细步骤看https://blog.csdn.net/qq_64556701/article/details/153980803?fromshare=blogdetail&sharetype=blogdetail&sharerId=153980803&sharerefer=PC&sharesource=qq_64556701&sharefrom=from_link
标注完成,将其分为训练集和验证集,其中(images和labels文件名不要进行修改)

创建shu.yaml,指定训练和验证集的目录

复制代码
train: datasets/shu/images/train
val: datasets/shu/images/val
names:
  0: shu

创建train.py进行训练

复制代码
from ultralytics import YOLO
yolo = YOLO('yolo11n.pt')
yolo.train(data='shu.yaml',workers=0,epochs=300,batch=16)

使用训练好的模型进行追踪

复制代码
import cv2 as cv
from ultralytics import YOLO
import pyautogui as pg
import numpy as np
yolo = YOLO('shu.pt')

while True:
    if cv.waitKey(1) == ord('q'):
        break
    shot = pg.screenshot()
    shot_np = np.array(shot)
    shot_np = shot_np[:,:,::-1]
    result = yolo.track(shot_np,persist=True)
    for i in result[0].boxes.xywh:
        pos = (i[0],i[1])
        pg.click(pos)


cv.waitKey(0)
cv.destroyAllWindows()

中间有延时,可能会导致有多个地鼠时,会来不及,可以进行下面优化,提高准确性能

复制代码
import cv2 as cv
from ultralytics import YOLO
import pyautogui as pg
import numpy as np
import time

yolo = YOLO('shu.pt')
pg.FAILSAFE = False  # 禁用安全退出,提高点击速度
pg.PAUSE = 0  # 移除pyautogui的默认延迟

# 设置鼠标移动参数
pg.MINIMUM_DURATION = 0
pg.MINIMUM_SLEEP = 0

while True:
    if cv.waitKey(1) == ord('q'):
        break
    
    start_time = time.time()
    
    # 截图
    shot = pg.screenshot()
    shot_np = np.array(shot)
    shot_np = shot_np[:,:,::-1]
    
    # 推理检测
    result = yolo.track(shot_np, persist=True)
    
    # 批量处理所有检测到的地鼠
    if result[0].boxes is not None and len(result[0].boxes) > 0:
        # 获取所有地鼠中心坐标
        positions = []
        for i in result[0].boxes.xywh:
            x, y = int(i[0]), int(i[1])
            positions.append((x, y))
        
        # 快速点击所有检测到的位置
        for pos in positions:
            # 直接移动并点击,不添加延迟
            pg.moveTo(pos[0], pos[1], duration=0)
            pg.click()
    
    # 控制帧率,避免过度占用CPU
    elapsed = time.time() - start_time
    if elapsed < 0.05:  # 最小20FPS
        time.sleep(0.05 - elapsed)

cv.destroyAllWindows()
相关推荐
Mr.Lee jack12 分钟前
【torch.compile】LazyTensor延迟执行机制
pytorch
九河云23 分钟前
华为云 ECS 弹性伸缩技术:应对业务峰值的算力动态调度策略
大数据·服务器·人工智能·物联网·华为云
IT空门:门主1 小时前
Spring AI的教程,持续更新......
java·人工智能·spring·spring ai
美狐美颜SDK开放平台1 小时前
美颜sdk是什么?如何将美颜SDK接入安卓/iOS直播平台?
人工智能·美颜sdk·直播美颜sdk·美颜api·美狐美颜sdk
AI营销资讯站1 小时前
AI营销内容生产:哪些平台支持全球多语言内容同步生产?
大数据·人工智能
飞哥数智坊1 小时前
AutoGLM 开源实测:一句话让 AI 帮我点个鸡排
人工智能·chatglm (智谱)
Mr.Lee jack1 小时前
【torch.compile】TorchDynamo动态图编译
pytorch
F_D_Z1 小时前
简明 | Yolo-v3结构理解摘要
深度学习·神经网络·yolo·计算机视觉·resnet
2022.11.7始学前端2 小时前
n8n第九节 使用LangChain与Gemini构建带对话记忆的AI助手
java·人工智能·n8n
LYFlied2 小时前
在AI时代,前端开发者如何构建全栈开发视野与核心竞争力
前端·人工智能·后端·ai·全栈