【树莓派】yolov5 Lite,目标检测,树莓派4B,推理v5lite-e_end2end.onnx,摄像头实时目标检测

文章目录

    • [YOLOv5 Lite: 在树莓派上轻松运行目标检测](#YOLOv5 Lite: 在树莓派上轻松运行目标检测)
      • [1. 环境配置](#1. 环境配置)
      • [2. 克隆项目](#2. 克隆项目)
      • [3. 安装依赖项](#3. 安装依赖项)
      • [4. 下载模型权重](#4. 下载模型权重)
      • [5. 理解end2end的含义](#5. 理解end2end的含义)
      • [6. 示例推理](#6. 示例推理)
      • [7. 文件介绍](#7. 文件介绍)
      • [8. 把文件弄到树莓派4B执行](#8. 把文件弄到树莓派4B执行)
      • [9. 进一步尝试fp16的onnx(行不通)](#9. 进一步尝试fp16的onnx(行不通))
      • [10. 视频流检测](#10. 视频流检测)

这里有大概的环境配置:
https://qq742971636.blog.csdn.net/article/details/138048132

yolov5树莓派跑不起来,用yolov5 Lite可以:
https://github.com/ppogg/YOLOv5-Lite

YOLOv5 Lite: 在树莓派上轻松运行目标检测

今天我将向您介绍如何使用YOLOv5 Lite在树莓派上进行目标检测。YOLOv5 Lite是一种轻量级目标检测模型,适用于资源受限的设备,如树莓派。在本文中,我将分享环境配置、项目克隆、模型部署以及示例推理的详细步骤。

1. 环境配置

首先,让我们配置环境以准备部署YOLOv5 Lite。以下是您需要执行的命令:

bash 复制代码
export http_proxy=http://192.168.3.2:10811
export https_proxy=http://192.168.3.2:10811

2. 克隆项目

接下来,我们将克隆YOLOv5 Lite项目。执行以下命令:

bash 复制代码
git clone https://github.com/ppogg/YOLOv5-Lite.git

3. 安装依赖项

进入项目目录并安装所需的依赖项:

bash 复制代码
cd ~/YOLOv5-Lite-master/python_demo/onnxruntime
python3 -m pip install onnx onnxruntime

4. 下载模型权重

现在,让我们下载YOLOv5 Lite的模型权重,您可以通过以下链接获取:

5. 理解end2end的含义

在YOLOv5 Lite中,我们使用end2end方法进行推理。这意味着模型内置了非极大值抑制(NMS),无需额外的后处理步骤。这样可以极大地简化代码并提高推理速度。

比如对下图的左图推理,可以得到12*6的结果:

6. 示例推理

在Windows系统上,使用YOLOv5 Lite进行推理非常快速,达到了每秒100帧的速度。这使得它成为在资源受限的设备上进行实时目标检测的理想选择。

7. 文件介绍

onnx推理不用管太多底层,不像mnn那样,所以更简单一点,经过上面的步骤,我们有如下文件:

(1)v5lite_e_onnx_end2end.py

(2)v5lite-e_end2end.onnx

执行v5lite_e_onnx_end2end.py就可以直接推理任意图片并保存,下图中的所有文件我放这里:

clike 复制代码
https://docs.qq.com/sheet/DUEdqZ2lmbmR6UVdU?u=bdf8eeb84961492ba2b62f7bfee641ea&tab=BB08J2

8. 把文件弄到树莓派4B执行

FPS只能达到9,即是每秒大概可以推理9帧图像。因为我们是onnx的fp32的运算,这个运算对树莓派来说还是比较大的,最快看宣传可以达到17帧,需要做一些量化之类的,我这里就不做了。

这是代码执行:

执行结果保存为save.jpg,打开看到:

9. 进一步尝试fp16的onnx(行不通)

是否可以使用fp16的onnx推理呢,速度会不会快一些呢,尝试一下,win上安装环境:

clike 复制代码
pip install onnxmltools  onnxconverter-common

执行python代码:

clike 复制代码
import onnxmltools
# 加载float16_converter转换器
from onnxmltools.utils.float16_converter import convert_float_to_float16
# 使用onnxmltools.load_model()函数来加载现有的onnx模型
# 但是请确保这个模型是一个fp32的原始模型
onnx_model = onnxmltools.load_model('./v5lite-e_end2end.onnx')
# 使用convert_float_to_float16()函数将fp32模型转换成半精度fp16
onnx_model_fp16 = convert_float_to_float16(onnx_model)
# 使用onnx.utils.save_model()函数来保存,
onnxmltools.utils.save_model(onnx_model_fp16, './v5lite-e_end2end_fp16.onnx')

有警告,但是文件得到了,并且是一半的大小:

执行推理失败了,说明转换的时候有的nms算子还是不能成功转换的,这一条路堵住了。

10. 视频流检测

这一步就比较简单了,建立一个文件写点opencv-python的代码,进行usb摄像头检测即可:

所使用的代码如下,其中v5lite_e_onnx_end2end.py在文档中去搜索获取~感谢~

clike 复制代码
import cv2
from v5lite_e_onnx_end2end import yolov5_lite
if __name__ == '__main__':
    # 初始化摄像头
    cap = cv2.VideoCapture(0)  # 0 表示第一个摄像头,如果有多个摄像头,可以尝试不同的索引

    # 加载模型
    modelpath = 'v5lite-e_end2end.onnx'  # 模型路径
    classfile = 'coco.names'  # 类别文件路径
    net = yolov5_lite(modelpath, classfile)  # 加载模型

    # 循环读取摄像头流
    while True:
        ret, frame = cap.read()  # 读取一帧图像
        if not ret:
            break  # 如果没有读取到图像,退出循环

        # 进行检测
        detected_img = net.detect(frame)

        # 显示检测结果
        cv2.imshow('YOLOv5Lite Detection', detected_img)

        # 检测按键,如果按下 q 键则退出循环
        if cv2.waitKey(1) & 0xFF == ord('q'):
            break

    # 释放摄像头并关闭所有窗口
    cap.release()
    cv2.destroyAllWindows()

下次博客准备把树莓派系统打包到镜像里去,这样可以免得每次都装半天环境,理论上克隆sd卡里所有内容就复刻了一份所有东西了~

相关推荐
海棠AI实验室19 分钟前
AI的进阶之路:从机器学习到深度学习的演变(一)
人工智能·深度学习·机器学习
hunteritself21 分钟前
AI Weekly『12月16-22日』:OpenAI公布o3,谷歌发布首个推理模型,GitHub Copilot免费版上线!
人工智能·gpt·chatgpt·github·openai·copilot
IT古董1 小时前
【机器学习】机器学习的基本分类-强化学习-策略梯度(Policy Gradient,PG)
人工智能·机器学习·分类
centurysee1 小时前
【最佳实践】Anthropic:Agentic系统实践案例
人工智能
mahuifa1 小时前
混合开发环境---使用编程AI辅助开发Qt
人工智能·vscode·qt·qtcreator·编程ai
四口鲸鱼爱吃盐1 小时前
Pytorch | 从零构建GoogleNet对CIFAR10进行分类
人工智能·pytorch·分类
蓝天星空1 小时前
Python调用open ai接口
人工智能·python
睡觉狂魔er1 小时前
自动驾驶控制与规划——Project 3: LQR车辆横向控制
人工智能·机器学习·自动驾驶
scan7242 小时前
LILAC采样算法
人工智能·算法·机器学习
leaf_leaves_leaf2 小时前
win11用一条命令给anaconda环境安装GPU版本pytorch,并检查是否为GPU版本
人工智能·pytorch·python