YOLO:输入mp4视频数据,经过YOLO目标检测算法,输出带有目标框的新视频

作者:CSDN @ 养乐多

本文将介绍输入mp4视频数据,经过YOLO目标检测算法,输出带有目标框的新视频的代码脚本。


文章目录


一、代码

代码只需要安装好cv2、ultralytics,然后修改模型路径、输入mp4视频文件路径、保存文件的路径。点击运行即可进行对视频数据的推理,结果保存一个新的带有目标框的新视频。

python 复制代码
import cv2
from ultralytics import YOLO
import datetime

# 加载YOLOv8n模型
model = YOLO('../预训练模型/yolov8n.pt')  # 替换为你的模型路径

# 打开输入视频
input_video_path = '../测试mp4视频/yourInputVideo.mp4'  # 替换为你的输入视频路径
cap = cv2.VideoCapture(input_video_path)

# 获取视频信息
frame_width = int(cap.get(cv2.CAP_PROP_FRAME_WIDTH))
frame_height = int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT))
fps = cap.get(cv2.CAP_PROP_FPS)
frame_count = int(cap.get(cv2.CAP_PROP_FRAME_COUNT))

# 获取当前时间并生成时间戳后缀
now = datetime.datetime.now()
time_str = now.strftime("%Y%m%d_%H%M%S")

# 定义输出视频路径并加上时间戳后缀
output_video_path = f'./runsVideo/output_video_{time_str}.mp4'  # 替换为你的输出视频路径
fourcc = cv2.VideoWriter_fourcc(*'mp4v')
out = cv2.VideoWriter(output_video_path, fourcc, fps, (frame_width, frame_height))

frame_number = 0

while cap.isOpened():
    ret, frame = cap.read()
    if not ret:
        break

    # 使用YOLOv8进行检测
    results = model(frame)

    # 解析结果并绘制检测框
    for result in results:
        boxes = result.boxes
        for box in boxes:
            x1, y1, x2, y2 = map(int, box.xyxy[0])  # 获取检测框坐标
            confidence = float(box.conf[0])  # 获取置信度
            cls = int(box.cls[0])  # 获取类别
            label = model.names[cls]  # 获取类别名称

            # 绘制检测框和标签
            cv2.rectangle(frame, (x1, y1), (x2, y2), (0, 255, 0), 2)
            cv2.putText(frame, f"{label} {confidence:.2f}", (x1, y1 - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 255, 0), 2)

    # 获取当前时间并绘制到帧上
    now = datetime.datetime.now()
    time_str = now.strftime("%Y-%m-%d %H:%M:%S")
    cv2.putText(frame, time_str, (10, 30), cv2.FONT_HERSHEY_SIMPLEX, 1, (0, 255, 0), 2, cv2.LINE_AA)

    # 写入处理后的帧
    out.write(frame)

    frame_number += 1
    print(f'Processing frame {frame_number}/{frame_count}')

# 释放资源
cap.release()
out.release()
相关推荐
☺����2 小时前
实现自己的AI视频监控系统-第一章-视频拉流与解码1
人工智能·python·音视频
Black_Rock_br3 小时前
本地部署的终极多面手:Qwen2.5-Omni-3B,视频剪、音频混、图像生、文本写全搞定
人工智能·音视频
顾道长生'10 小时前
(Arxiv-2025)SkyReels-A2:在视频扩散变换器中组合任意内容
人工智能·计算机视觉·音视频·多模态
9527华安10 小时前
FPGA实现Aurora 64B66B图像视频点对点传输,基于GTH高速收发器,提供2套工程源码和技术支持
fpga开发·音视频·aurora·gth·高速收发器·64b66b
arron889913 小时前
YOLOv8n-pose 模型使用
人工智能·深度学习·yolo
飞翔的佩奇19 小时前
【完整源码+数据集+部署教程】表盘指针检测系统源码和数据集:改进yolo11-CA-HSFPN
python·yolo·计算机视觉·数据集·yolo11·表盘指针检测
小曾同学.com21 小时前
【每天学点‘音视频’】前向纠错 和 漏包重传
音视频·fec·前向纠错
胖虎121 小时前
(二十)深入了解 AVFoundation-编辑:使用 AVMutableVideoComposition 实现视频加水印与图层合成(下)——实战篇
音视频·视频编辑·视频添加水印
AI浩21 小时前
跟踪不稳定目标:基于外观引导的运动建模实现无人机视频中的鲁棒多目标跟踪
目标跟踪·音视频·无人机
Coovally AI模型快速验证21 小时前
农田扫描提速37%!基于检测置信度的无人机“智能抽查”路径规划,Coovally一键加速模型落地
深度学习·算法·yolo·计算机视觉·transformer·无人机