本文采用YOLOv11作为核心算法框架,结合PyQt5构建用户界面,使用Python3进行开发。YOLOv11以其高效的特征提取能力,在多个图像分类任务中展现出卓越性能。本研究针对5种宠物狗数据集进行训练和优化,该数据集包含丰富的宠物狗图像样本,为模型的准确性和泛化能力提供了有力保障。通过深度学习技术,模型能够自动提取宠物狗的特征并进行分类识别。PyQt5界面设计简洁直观,便于用户操作和实时查看检测结果。本研究不仅提高了宠物狗的分类自动化水平,具有重要的理论应用价值。
YOLOv11实战宠物狗分类
文章目录
- 研究背景
- 1.前言
-
- [1.1 YOLO 系列:目标检测领域的璀璨明星](#1.1 YOLO 系列:目标检测领域的璀璨明星)
- [1.2 Transformer与注意力机制:为目标检测注入新活力](#1.2 Transformer与注意力机制:为目标检测注入新活力)
- [1.3 宠物狗检测技术:迎接挑战,砥砺前行](#1.3 宠物狗检测技术:迎接挑战,砥砺前行)
- [1.4 YOLOv11算法在宠物狗检测系统中的精彩演绎](#1.4 YOLOv11算法在宠物狗检测系统中的精彩演绎)
- 2.宠物狗数据集介绍
- 3.界面效果演示
-
- [3.1 图像测试](#3.1 图像测试)
- [3.2 视频测试](#3.2 视频测试)
- [3.3 摄像头测试](#3.3 摄像头测试)
- [4. YOLOv11 原理](#4. YOLOv11 原理)
- [5 模型训练](#5 模型训练)
-
- [5.1 Conda环境构建](#5.1 Conda环境构建)
- [5.2 基础环境构建](#5.2 基础环境构建)
- [5.3 安装YOLOv11环境](#5.3 安装YOLOv11环境)
- [5.4 构建宠物狗检测模型](#5.4 构建宠物狗检测模型)
-
- [1. 基本概念](#1. 基本概念)
- [2. 矩阵元素含义](#2. 矩阵元素含义)
- [3. 构建混淆矩阵的步骤](#3. 构建混淆矩阵的步骤)
- [4. 混淆矩阵的作用](#4. 混淆矩阵的作用)
- [5. 基于混淆矩阵的常见评估指标](#5. 基于混淆矩阵的常见评估指标)
- [6 系统实现](#6 系统实现)
-
- 6.1架构设计
- [6.2 系统流程](#6.2 系统流程)
- [6.3 代码实现](#6.3 代码实现)
- 安装与资源说明
- 总结与展望
- 结束语
研究背景
1.前言
1.1 YOLO 系列:目标检测领域的璀璨明星
在实时目标检测的算法星空中,YOLO 系列无疑是最为耀眼的星座之一。从 YOLOv5 到 YOLOv11,每一次的迭代都宛如一次华丽的蜕变,在性能、速度与准确度上实现了跨越式的提升。YOLOv11,作为这一系列的最新杰作,凭借其更为深邃复杂的网络架构以及精妙绝伦的训练技巧,将检测的准确性与速度推向了新的高峰。尤其在应对动态视频流中的宠物狗检测任务时,它宛如一位技艺精湛的舞者,展现出了令人赞叹的卓越性能。这些显著的改进,如同强大的引力,使得 YOLO 系列在宠物狗检测领域的应用版图不断拓展,愈发完美地契合了实时性与准确性的双重严苛要求。
多元算法共筑宠物狗标志检测的坚实堡垒
除了光芒四射的 YOLO 系列,其他深度学习算法,诸如 Faster R - CNN、SSD 以及基于 Transformer 的 DETR 等,也纷纷在宠物狗佩戴检测的舞台上崭露头角。它们各具独特的优势,恰似一群才华横溢的艺术家,在不同的领域绽放光彩。Faster R - CNN 以其在检测精度上的非凡表现,犹如一位精雕细琢的工匠,刻画着每一个细节;而 SSD 则在速度方面具备明显优势,恰似一阵疾风,迅速而敏捷。最新的研究恰似一场永不停歇的探索之旅,不断挖掘这些算法的改进版本,力求在速度与准确性之间找到那最为完美的平衡点,如同在钢丝上寻找平衡的舞者,追求极致的和谐。
1.2 Transformer与注意力机制:为目标检测注入新活力
Transformer 在视觉任务中的应用,犹如一颗璀璨的新星划破夜空,吸引了广泛的关注,其中视觉 Transformer(ViT)更是备受瞩目。ViT 通过巧妙引入自注意力机制,仿佛为模型赋予了一双敏锐的眼睛,能够精准捕捉图像中的长距离依赖关系,这在中国宠物狗形态复杂多样且背景纷繁复杂的情况下,显得尤为关键。相较于传统的卷积神经网络(CNN),ViT 在处理图像全局信息时展现出了更为卓越的能力,如同一位宏观把控的大师,为中国宠物狗检测开辟了一片崭新的天地,提供了全新的解决思路。
注意力机制,作为 Transformer 的核心瑰宝,已如同星星之火,在各种深度学习模型中形成燎原之势,在中国宠物狗检测领域更是大放异彩。它赋予了模型对图像特定部分的 "专注" 能力,如同为模型戴上了一副神奇的眼镜,使其能够在复杂的背景或多变的中国宠物狗形态中,依然清晰地定位并准确识别目标,即便在干扰信息如潮水般涌来的环境中,也能稳如泰山,保持较高的检测准确率。
1.3 宠物狗检测技术:迎接挑战,砥砺前行
当前,中国宠物狗检测技术正置身于充满挑战的浪潮之中,亟待提高检测的实时性、准确性以及在多变环境下的适应性,如同在波涛汹涌的大海中航行的船只,需要不断调整航向,迎接风浪的挑战。为了跨越这些难关,研究人员们宛如勇敢的探险家,不断探索新的算法和技术。例如,通过深度学习模型的轻量化设计,如同为船只减轻负重,提高算法的运行效率,使其在复杂的环境中更加灵活敏捷;利用创新的数据增强技术和自适应学习方法,仿佛为船只加固船身,提升模型的泛化能力和鲁棒性,使其能够在各种未知的海域中稳健前行。
1.4 YOLOv11算法在宠物狗检测系统中的精彩演绎
本博客致力于基于 YOLOv11 算法构建一个宠物狗检测系统,并全方位展示其魅力。我们将呈现系统精致的界面效果,如同揭开一幅美丽画卷,让您领略其独特风采;深入阐述其算法原理,恰似探秘一座神秘城堡,为您揭示其中的奥秘;毫无保留地提供代码实现,仿佛为您递上一把开启知识宝库的钥匙;详细分享该系统的实现过程,如同陪伴您走过一段精彩旅程,让您亲身体验其中的艰辛与喜悦。希望本博客的倾心分享能如同一盏明灯,为读者照亮前行的道路,给予您深刻的启示,进而推动更多相关研究的蓬勃发展。本文的核心内容主要涵盖以下几个方面:
- YOLOv11 算法的卓越应用与性能对比
本文不仅详细介绍了基于 YOLOv11 算法的中国宠物狗检测系统的构建历程,如同讲述一个精彩的创业故事,而且还深入细致地比较了 YOLOv7、YOLOv6、YOLOv5 等早期版本的性能差异,仿佛展开一场激烈的武林高手对决。这一全面深入的比较研究,恰似一本权威的指南,为中国宠物狗检测技术的选型提供了坚实有力的参考依据。特别是 YOLOv11 算法在效率和精准度方面所展现出的显著优势,犹如一座明亮的灯塔,为 宠物狗检测指明了一条更为高效、更为准确的技术路径。 - PyQt5 打造的友好用户界面
通过 Python 的 PyQt5 库精心打造的宠物狗检测系统,不仅具备高效卓越的检测能力,如同一位内功深厚的武林高手,更提供了直观便捷、令人赏心悦目的用户操作界面,仿佛为用户搭建了一座温馨的家园。这种贴心的设计,使得宠物狗检测变得更加亲切友好,如同一位热情好客的主人,有助于广泛推广 YOLOv11 算法的应用,同时也为宠物狗检测技术的普及和实用化注入了强大的动力,如同春风化雨,滋润着这片技术的田野。 - YOLOv11 模型的深度研究与性能剖析
YOLOv11是YOLO系列的最新版本,旨在提高实时目标检测技术的准确性和效率,引入了C3k2块、SPPF和C2PSA组件,增强了特征提取能力。
主干网络:YOLOv11的主干网络采用了C3k2块,替代了之前版本中的C2f块,提升了计算效率。
颈部结构:在颈部引入了C2PSA模块,增强了空间注意力机制。
头部预测:头部使用了多个C3k2块和CBS层,进一步细化特征图,最终输出边界框和类别标签。支持的计算机视觉任务:
精度与效率:YOLOv11在COCO数据集上取得了更高的平均精度(mAP),同时参数数量减少了22%。
多任务能力:YOLOv11在多种计算机视觉任务中表现出色,包括姿态估计、对象识别、图像分类等。
架构优化:通过改进的架构设计和训练流程,YOLOv11实现了更快的处理速度和更高的计算效率。
2.宠物狗数据集介绍
宠物狗数据集包含五种宠物狗,分别是{0: '法国斗牛犬', 1: '德国牧羊犬', 2: '金毛猎犬', 3: '贵宾犬', 4: '约克夏犬'},在数据预处理阶段,采取了几项关键步骤以确保数据集的质量。首先,所有图像都经过了自动方向校正。接着,所有图像都被统一调整至224x224像素,通过拉伸的方式来适配这一分辨率。
3.界面效果演示
3.1 图像测试
3.2 视频测试
3.3 摄像头测试
4. YOLOv11 原理
YOLOv11是YOLO系列另一个SOTA模型,该模型是相对于YOLOV5进行更新的。其主要结构如下图所示:
从图中可以看出,网络还是分为三个部分: 主干网络(backbone),特征增强网络(neck),检测头(head) 三个部分。
相比较于YOLOv8模型,其将CF2模块改成C3K2,同时在SPPF模块后面添加了一个C2PSA模块,且将YOLOv10的head思想引入到YOLO11的head中,使用深度可分离的方法,减少冗余计算,提高效率
主干网络:YOLOv11的主干网络采用了C3k2块,替代了之前版本中的C2f块,提升了计算效率。
python
class C3k2(C2f):
"""Faster Implementation of CSP Bottleneck with 2 convolutions."""
def __init__(self, c1, c2, n=1, c3k=False, e=0.5, g=1, shortcut=True):
"""Initializes the C3k2 module, a faster CSP Bottleneck with 2 convolutions and optional C3k blocks."""
super().__init__(c1, c2, n, shortcut, g, e)
self.m = nn.ModuleList(
C3k(self.c, self.c, 2, shortcut, g) if c3k else Bottleneck(self.c, self.c, shortcut, g) for _ in range(n)
)
颈部结构:在颈部引入了C2PSA模块,增强了空间注意力机制。
C2PSA是对 C2f 模块的扩展,它结合了PSA(Pointwise Spatial Attention)块,用于增强特征提取和注意力机制。通过在标准 C2f 模块中引入 PSA 块,C2PSA实现了更强大的注意力机制,从而提高了模型对重要特征的捕捉能力。
头部预测:头部使用了多个C3k2块和CBS层,进一步细化特征图,最终输出边界框和类别标签。
5 模型训练
模型训练主要分为如下几步:
5.1 Conda环境构建
新人安装Anaconda环境可以参考博主写的文章Anaconda3与PyCharm安装配置保姆教程
5.2 基础环境构建
新人安装PyTorch GPU版本可以参考博主写的文章基于conda的PyTorch深度学习框架GPU安装教程
5.3 安装YOLOv11环境
python
conda create -n yolov11 python=3.8
conda activate yolov11
pip install ultralytics
5.4 构建宠物狗检测模型
宠物狗检测系统,分别为
python
cls_names = {0: '法国斗牛犬', 1: '德国牧羊犬', 2: '金毛猎犬', 3: '贵宾犬', 4: '约克夏犬'}
宠物狗数据集训练集一共1000左右,验证集300张,标注格式采用yolo格式组织
python
images
train
class1
image1.jpg
image2.jpg
...
class2
image1.jpg
image2.jpg
...
val
class1
image1.jpg
image2.jpg
...
class2
image1.jpg
image2.jpg
...
我们开启训练之旅的第一步是导入一系列不可或缺的模块,其中涵盖了 os 模块,它犹如一把万能钥匙,为我们处理各种文件路径相关的操作提供了便利;torch 模块恰似一台强大的引擎,助力我们高效地执行各类数值计算任务;yaml 模块则如同一位精准的翻译官,能够帮助我们轻松解析配置文件中的各种信息;还有专门的 YOLO 类,它是我们构建模型的关键基石,为实例化模型奠定了基础。
紧接着,我们着手确定训练过程所依托的计算设备。在这个环节中,我们秉持优先选择的策略,将目光聚焦于 GPU(cuda:0),因为它具备强大的并行计算能力,能够极大地加速训练过程。然而,若 GPU(cuda:0)不可用,我们也做好了充分的应对准备,即退而求其次,选择使用 CPU 来继续我们的训练任务。尽管 CPU 的计算速度相对较慢,但它依然能够确保训练工作的顺利进行,为我们的研究提供持续的支持。
python
import os
import torch
import yaml
from ultralytics import YOLO # 导入YOLO模型
device = "cuda:0" if torch.cuda.is_available() else "cpu"
接下来,我们对一些基本的训练参数进行了设定,其中包括工作进程数以及批次大小。随后,明确了数据集的名称与路径,并且借助 abs_path 函数获取到了配置文件的绝对路径。这样做能够保证在不同的运行环境下路径具有一致性,同时也提升了代码的可移植性。
python
workers = 1
batch = 8
data_name = "petDogKind5"
data_path = abs_path(f'datasets/{data_name}/{data_name}.yaml', path_type='current') # 数据集的yaml的绝对路径
unix_style_path = data_path.replace(os.sep, '/')
# 获取目录路径
directory_path = os.path.dirname(unix_style_path)')
在加载数据配置文件之前,必须先读取并解析 YAML 格式的配置文件。这一环节极为重要,原因在于该配置文件中涵盖了训练过程所需的关键信息,例如类别标签以及数据集路径等等。我们对配置文件中的"path"键值进行修改,以此确保模型能够准确无误地找到训练和验证数据。
python
# 读取YAML文件,保持原有顺序
with open(data_path, 'r') as file:
data = yaml.load(file, Loader=yaml.FullLoader)
# 修改path项
if 'path' in data:
data['path'] = directory_path
# 将修改后的数据写回YAML文件
with open(data_path, 'w') as file:
yaml.safe_dump(data, file, sort_keys=False)
接着,我们加载了预先训练好的 YOLOv11 模型,进而开启了训练进程。YOLO 类的 train 方法接纳了众多参数,其中有数据路径、设备、工作进程数、输入图像的尺寸、训练周期以及批次大小。在此处,name参数为训练任务赋予了标识,便于后续进行追踪与分析。
python
model = YOLO(abs_path('./weights/yolo11s-cls.pt'), task='classify') # 加载预训练的YOLOv11模型
results = model.train( # 开始训练模型
data=data_path, # 指定训练数据的配置文件路径
workers=0,
imgsz=640, # 指定输入图像的大小为640x640
epochs=100, # 指定训练100个epoch
batch=batch, # 指定每个批次的大小为8
name='train_v11_' + data_name # 指定训练任务的名称
)
100个epoch训练输出曲线如下
08d8a6f1ba274be498b7995ed0ccd2d3.png#pic_center)
图像分类混淆矩阵(Confusion Matrix)是评估图像分类模型性能的一种重要工具,它以矩阵的形式清晰地展示了模型预测结果与真实标签之间的对应关系。以下是关于图像分类混淆矩阵的详细介绍:
1. 基本概念
- 混淆矩阵是一个二维矩阵,其行数和列数都等于类别数。例如,对于一个将图像分为三类(猫、狗、兔子)的分类模型,混淆矩阵就是一个3×3的矩阵。
- 矩阵的每一行代表真实类别,每一列代表预测类别。
2. 矩阵元素含义
以一个简单的二分类问题(比如将图像分为正类和负类)为例来解释矩阵元素的含义,然后再推广到多分类情况。
- True Positive (TP):真实类别为正类,且模型预测也为正类的样本数量。在图像分类中,比如真实图像是猫,模型也正确预测为猫的图像数量就对应着TP。
- True Negative (TN):真实类别为负类,且模型预测也为负类的样本数量。例如真实图像不是猫(比如是狗),模型也正确预测不是猫的图像数量就是TN。
- False Positive (FP):真实类别为负类,但模型预测为正类的样本数量。也就是真实图像不是猫,但模型错误地预测为猫的图像数量,这被称为假阳性。
- False Negative (FN):真实类别为正类,但模型预测为负类的样本数量。比如真实图像是猫,但模型错误地预测不是猫的情况,称为假阴性。
3. 构建混淆矩阵的步骤
- 收集预测结果和真实标签:首先要有模型对一批图像进行分类后的预测结果以及这些图像的真实标签。预测结果通常是模型输出的类别概率向量经过某种决策规则(如取概率最大的类别)得到的类别,真实标签则是已知的图像实际所属类别。
- 确定类别数:根据分类任务的不同,确定一共有多少个类别,以此来构建相应大小的混淆矩阵。
- 填充混淆矩阵:按照上述矩阵元素的含义,逐个将样本的预测类别和真实类别对应的元素值增加。例如,对于一个预测为猫且真实标签也是猫的图像样本,就在混淆矩阵中"猫"行"猫"列的元素值上加1。
4. 混淆矩阵的作用
- 评估模型准确性:通过混淆矩阵可以计算出一些重要的评估指标,从而全面评估模型的准确性。
- 分析错误类型:可以直观地看出模型在哪些类别上容易出现假阳性和假阴性错误,有助于针对性地改进模型。
- 比较不同模型性能:当有多个模型用于同一分类任务时,可以通过比较它们的混淆矩阵及相关指标来判断哪个模型性能更好。
5. 基于混淆矩阵的常见评估指标
- 准确率(Accuracy):计算所有预测正确的样本数量占总样本数量的比例,公式为:Accuracy = (TP + TN) / (TP + FP + FN + TN)。
- 召回率(Recall):也叫查全率,对于某一类别,召回率表示该类别中真实为该类别的样本被正确预测为该类别的比例,公式为:Recall = TP / (TP + FN)。
- 精确率(Precision):对于某一类别,精确率表示预测为该类别的样本中实际为该类别的比例,公式为:Precision = TP / (TP + FP)。
- F1值(F1-score):是精确率和召回率的调和平均数,公式为:F1 = 2 * Precision * Recall / (Precision + Recall)。
通过分析图像分类混淆矩阵及其相关指标,可以深入了解图像分类模型的性能,以便进行后续的改进和优化。
6 系统实现
6.1架构设计
MainWindow 类的核心目标是打造一个用户友好的交互式中国宠物狗检测系统。为了达成这一目标,采用了将界面、媒体处理与模型进行集成的设计理念。通过对象组合的手段,把不同的处理器和模型整合在一起,使得每个功能模块都可以独立运作。与此同时,还运用信号和槽机制来实现模块之间的交互以及数据的传递。
我们的系统设计理念以三层架构作为核心,分别是处理层、界面层以及控制层。在系统设计过程中,我们将重点置于确保各个组件能够协同运作的同时,保持充分的模块独立性,以便于未来进行维护和升级。
处理层(Processing Layer):通过运用模块化的处理层,我们对 YOLOv11Detector 类所实现的深度学习模型予以封装。如此一来,图像处理与目标检测的复杂性对于其他系统组件而言是不可见的。这种封装不但提升了系统的可靠性,还使得未来替换或升级模型变得更为容易。
界面层(UI Layer):在界面层方面,我们借助 PyQt5 库构建出一套完整的用户界面,提供了直观的操作按钮、状态标签以及实时的图像显示。该界面不但能够对用户的操作做出响应,还能实时反馈模型的检测结果,进而提高用户的操作便利性与系统的交互性。界面的设计目标在于降低用户的学习曲线,即便是没有技术背景的用户也能够轻松掌握。
控制层(Control Layer):控制层是连接用户界面与后端处理模块的桥梁。在这一层中,MainWindow 类肩负着响应用户交互、控制视频流处理以及展示模型预测结果的重任。通过信号和槽机制,我们能够将用户的操作转化为系统的响应,例如启动和停止视频流、调整检测设置等。这样的设计不仅提高了系统反应的及时性,还增强了用户的控制感。
6.2 系统流程
当用户启动我们的应用程序时,系统会首先对 MainWindow 类进行实例化。该类不但负责初始化用户界面,设定窗口大小以及展示区域,还会准备好后续处理所需的各类参数。用户界面作为与系统交互的重要桥梁,为用户提供了选择视频输入源的机会。输入源的灵活性可谓此系统的一大亮点,用户能够选择实时视频流、预录视频文件或者单张图片作为检测的媒介。
一旦输入源被用户选定,系统就会开始调用内置的媒体处理器来进行数据的读取与处理。这个过程涵盖了摄像头的实时捕获设置、视频文件的解码读取以及图像数据的加载至内存等环节。这些环节均是自动进行的,无需用户进行手动配置,充分彰显了智能化的设计理念。
接下来,系统将进入连续的处理循环,持续对实时获取的帧数据进行分析。在预处理阶段,系统会通过一系列的图像处理技术,例如缩放、色彩转换等,让每帧图像符合 YOLOv11 模型的输入标准。这一步骤对于提升模型的识别效率与准确度起着至关重要的作用。
紧接着,经过预处理的图像会被送入经过训练的 YOLOv11 模型进行实时检测。模型能够快速地在图像中定位中国宠物狗,并对它们进行分类,其结果将用于后续的界面更新。我们的系统设计允许在用户界面上实时显示检测框,标注目标类别,并在界面上实时展示检测的统计数据。这种即时的反馈为用户提供了清晰的视觉指引,有助于他们了解当前环境的安全状况。
6.3 代码实现
在现代计算机视觉领域中,把深度学习模型应用于实时图像处理任务已然成为一项关键技术。在本博客里,我们会详细阐述如何运用 YOLOv11 算法,并结合 PyQt5 来创建一个实时目标检测系统。这个系统能够在视频流中识别并标注特定对象,比如 宠物狗检测。
(1)引入必要的库:
首先,系统的构建从导入必要的 Python 模块开始。sys 模块是 Python 内置的模块,它提供了诸多与 Python 解释器紧密相关的功能。例如,sys.argv 可用于获取命令行参数,这在启动应用程序时非常重要。time 模块允许我们获取当前时间,这对于性能评估以及监控推理时间起着至关重要的作用。OpenCV 库(cv2)是图像处理的核心,它提供了一系列强大的功能来捕捉和处理图像数据。
python
import cv2
import numpy as np
from PyQt5.QtCore import QTimer, Qt, pyqtSignal, QThread
from PyQt5.QtGui import QImage, QPixmap, QPalette
from PyQt5.QtWidgets import QMainWindow, QFileDialog, QDesktopWidget
from ui_mainwindow import Ui_MainWindow
from utils import image_read_from_chinese_path
from ultralytics import YOLO
(2)设置主窗口:
构建用户界面(UI)是实现系统的关键一步。我们借助 PyQt5 库构建了图形用户界面。QMainWindow 作为我们窗口的基类,为展示处理后的图像提供了一个画布。
python
class MyMainWindow(QMainWindow):
def __init__(self, parent=None):
# 调用父类构造函数,创建窗体
super().__init__(parent)
# 创建UI对象
self.ui = Ui_MainWindow()
# 构造UI界面
self.ui.setupUi(self)
self.set_centre()
self.image_file_path = None
(3)初始化模型
python
self.model = YOLO('./weights/best.pt')
(4)界面信号槽绑定
python
self.ui.comboBox_source.currentIndexChanged.connect(self.comboBox_source_slot)
self.ui.toolButton_fileOpen.clicked.connect(self.toolButton_fileOpen_slot)
self.ui.pushButton_infer.clicked.connect(self.pushButton_infer_slot)
self.ui.pushButton_infer_stop.clicked.connect(self.pushButton_infer_stop_slot)
self.ui.doubleSpinBox_conf.valueChanged.connect(self.doubleSpinBox_conf_slot)
self.ui.horizontalSlider_conf.valueChanged.connect(self.horizontalSlider_conf_slot)
self.ui.doubleSpinBox_iou.valueChanged.connect(self.doubleSpinBox_iou_slot)
self.ui.horizontalSlider_iou.valueChanged.connect(self.horizontalSlider_iou_slot)
(5)图像显示
python
@staticmethod
def show_image(img_src, label):
try:
# img_src = cv2.resize(img_src, None, fx=0.5, fy=0.5)
ih, iw, _ = img_src.shape
w = label.geometry().width()
h = label.geometry().height()
# 保持纵横比
# 找出长边
if iw > ih:
scal = w / iw
nw = w
nh = int(scal * ih)
img_src_ = cv2.resize(img_src, (nw, nh))
else:
scal = h / ih
nw = int(scal * iw)
nh = h
img_src_ = cv2.resize(img_src, (nw, nh))
frame = cv2.cvtColor(img_src_, cv2.COLOR_BGR2RGB)
img = QImage(frame.data, frame.shape[1], frame.shape[0], frame.shape[2] * frame.shape[1],
QImage.Format_RGB888)
label.setPixmap(QPixmap.fromImage(img))
except Exception as e:
print(repr(e))
安装与资源说明
总结与展望
在本博客当中,我们对一个基于 YOLOv11 模型的实时宠物狗检测系统进行了详细的介绍。该系统采用模块化的设计方式,充分运用了合理的架构设计,从而具备良好的可维护性与可扩展性。它的用户界面十分友好,能够实时展示宠物狗检测和识别的结果。
此系统支持摄像头、视频、图像以及批量文件等多种输入源,能够满足用户在不同场景下的需求。后续可以添加更多的预训练模型,以增加检测和识别的种类;对用户界面进行优化,增强个性化设置;并且积极倾听用户反馈,期望不断改进系统,从而更好地满足用户的需求。
结束语
由于博主能力有限,博文中提及的方法即使经过试验,也难免会有疏漏之处。希望您能热心指出其中的错误,以便下次修改时能以一个更完美更严谨的样子,呈现在大家面前。同时如果有更好的实现方法也请您不吝赐教。