YOLO11追踪简单应用

准备工作,需要下载一下yolo模型,我这里用的时yolo11,下载链接Ultralytics YOLO11 - Ultralytics YOLO 文档

将上面的文件放到文件夹里,并用vscode打开,为该项目创建自己的虚拟环境 crtl+shift+p

选择刚才创建的虚拟环境,进入终端安装所需要的包

复制代码
pip install torch torchvision torchaudio
pip install ultralytics
pip install opencv-python
pip install pyautogui
pip install lap>=0.5.12

新建一个track.py文件对视频进行抽帧处理

复制代码
import cv2 as cv
from ultralytics import YOLO
from time import sleep
rec = cv.VideoCapture('rec.mp4')
i=0
while True:
    r,f = rec.read()
    if not r:
        print('没有更多的帧了')
        break
    if cv.waitKey(1)==ord('q'):
        print('您按了q键')
        break
    #实际操作
    i += 1
    if i % 25 == 0:
        cv.imwrite(f'{i}.jpg',f)
    
rec.release()
cv.destroyAllWindows()

对抽帧的图片进行统一改名,改名网址Rename - 批量文件重命名工具

对图片进行标注 详细步骤看https://blog.csdn.net/qq_64556701/article/details/153980803?fromshare=blogdetail&sharetype=blogdetail&sharerId=153980803&sharerefer=PC&sharesource=qq_64556701&sharefrom=from_link
标注完成,将其分为训练集和验证集,其中(images和labels文件名不要进行修改)

创建shu.yaml,指定训练和验证集的目录

复制代码
train: datasets/shu/images/train
val: datasets/shu/images/val
names:
  0: shu

创建train.py进行训练

复制代码
from ultralytics import YOLO
yolo = YOLO('yolo11n.pt')
yolo.train(data='shu.yaml',workers=0,epochs=300,batch=16)

使用训练好的模型进行追踪

复制代码
import cv2 as cv
from ultralytics import YOLO
import pyautogui as pg
import numpy as np
yolo = YOLO('shu.pt')

while True:
    if cv.waitKey(1) == ord('q'):
        break
    shot = pg.screenshot()
    shot_np = np.array(shot)
    shot_np = shot_np[:,:,::-1]
    result = yolo.track(shot_np,persist=True)
    for i in result[0].boxes.xywh:
        pos = (i[0],i[1])
        pg.click(pos)


cv.waitKey(0)
cv.destroyAllWindows()

中间有延时,可能会导致有多个地鼠时,会来不及,可以进行下面优化,提高准确性能

复制代码
import cv2 as cv
from ultralytics import YOLO
import pyautogui as pg
import numpy as np
import time

yolo = YOLO('shu.pt')
pg.FAILSAFE = False  # 禁用安全退出,提高点击速度
pg.PAUSE = 0  # 移除pyautogui的默认延迟

# 设置鼠标移动参数
pg.MINIMUM_DURATION = 0
pg.MINIMUM_SLEEP = 0

while True:
    if cv.waitKey(1) == ord('q'):
        break
    
    start_time = time.time()
    
    # 截图
    shot = pg.screenshot()
    shot_np = np.array(shot)
    shot_np = shot_np[:,:,::-1]
    
    # 推理检测
    result = yolo.track(shot_np, persist=True)
    
    # 批量处理所有检测到的地鼠
    if result[0].boxes is not None and len(result[0].boxes) > 0:
        # 获取所有地鼠中心坐标
        positions = []
        for i in result[0].boxes.xywh:
            x, y = int(i[0]), int(i[1])
            positions.append((x, y))
        
        # 快速点击所有检测到的位置
        for pos in positions:
            # 直接移动并点击,不添加延迟
            pg.moveTo(pos[0], pos[1], duration=0)
            pg.click()
    
    # 控制帧率,避免过度占用CPU
    elapsed = time.time() - start_time
    if elapsed < 0.05:  # 最小20FPS
        time.sleep(0.05 - elapsed)

cv.destroyAllWindows()
相关推荐
科技小花3 小时前
全球化深水区,数据治理成为企业出海 “核心竞争力”
大数据·数据库·人工智能·数据治理·数据中台·全球化
zhuiyisuifeng4 小时前
2026前瞻:GPTimage2镜像官网或将颠覆视觉创作
人工智能·gpt
徐健峰4 小时前
GPT-image-2 热门玩法实战(一):AI 看手相 — 一张手掌照片生成专业手相分析图
人工智能·gpt
weixin_370976354 小时前
AI的终极赛跑:进入AGI,还是泡沫破灭?
大数据·人工智能·agi
Slow菜鸟4 小时前
AI学习篇(五) | awesome-design-md 使用说明
人工智能·学习
冬奇Lab5 小时前
RAG 系列(五):Embedding 模型——语义理解的核心
人工智能·llm·aigc
深小乐5 小时前
AI 周刊【2026.04.27-05.03】:Anthropic 9000亿美元估值、英伟达死磕智能体、中央重磅定调AI
人工智能
码点滴5 小时前
什么时候用 DeepSeek V4,而不是 GPT-5/Claude/Gemini?
人工智能·gpt·架构·大模型·deepseek
狐狐生风5 小时前
LangChain 向量存储:Chroma、FAISS
人工智能·python·学习·langchain·faiss·agentai
波动几何5 小时前
CDA架构代码工坊技能cda-code-lab
人工智能