文章目录
本系统功能强大!支持对图片、视频、视频流、摄像头中的口罩佩戴情况进行检测,支持多种数据数据源输入并且接入了AI实现了对当前分析结果的评估,欢迎了解!
@项目名称:基于PyQt+YOLO+DeepSeek的车型检测系统
@仓库名称:yolov8-vehicle-type-detect
@作者:懷淰メ
@主页地址:https://blog.csdn.net/a1397852386
@定制:A1397852386
@开发日期:2026年4月

一.前言
随着智能交通与智慧城市建设的不断推进,基于视觉的车辆识别技术正成为交通管理与数据分析的重要支撑手段。传统人工统计方式效率低、成本高,难以满足实时性与精细化管理需求。在此背景下,设计一套基于 PyQt5 构建可视化界面、结合 YOLOv8 实现高效目标检测,并引入 DeepSeek 模型进行智能分析与评估的检测系统,具有显著的现实意义。该系统能够对公交车、小汽车、SUV、出租车和卡车等多种车型进行快速、准确的识别与分类,不仅提升交通流量监测与管理效率,还可为城市规划、道路优化及智能调度提供数据支持,推动交通系统向自动化与智能化方向发展。
二.核心技术&知识
在这章我将要介绍本系统的核心技术。
1.PyQt5
PyQt5 是一套用于创建跨平台桌面应用程序的 Python GUI 工具包,它是 Qt 应用框架的 Python 绑定。通过 PyQt5,开发者可以使用 Python 编写具有现代图形界面的应用程序,支持丰富的控件、信号与槽机制、窗口管理、事件处理等功能。它兼容主流操作系统(如 Windows、macOS 和 Linux),适用于开发各种规模的桌面软件,常与 Qt Designer 配合使用以加快开发效率。
2.YOLOv8
YOLOv8(You Only Look Once version 8)是由 Ultralytics 推出的最新一代实时目标检测模型,属于 YOLO 系列的改进版本。相比前代模型,YOLOv8 在精度、速度和灵活性上都有显著提升,支持目标检测、图像分割、姿态估计等多任务处理。它采用了更加高效的网络结构和训练策略,并提供开箱即用的 Python 接口和命令行工具,适用于边缘设备和云端部署,广泛应用于安防监控、自动驾驶、工业检测等场景。
3.DeepSeek
DeepSeek是由深度求索公司开发的AI大模型助手,作为纯文本模型,我擅长自然语言处理、文档分析和智能对话。当与YOLO(You Only Look Once)实时目标检测系统结合时,可以形成强大的多模态应用架构------YOLO系统负责实时视觉识别和目标检测,快速准确地识别图像或视频流中的物体;而我则对YOLO检测到的结果进行深度语义分析和上下文理解,提供物体属性的详细解读、场景描述、行为分析以及决策建议。这种结合使得计算机视觉的"看到"与AI的"理解"完美融合,可广泛应用于智能监控、自动驾驶、工业质检等领域,实现从视觉感知到智能决策的完整闭环。
4.Sqlite3
本系统使用Sqlite3进行数据的存储与管理。
SQLite3是一种轻量级的嵌入式关系型数据库管理系统,广泛应用于桌面软件、移动应用以及各类嵌入式设备中。与传统的客户端-服务器数据库(如MySQL、PostgreSQL)不同,SQLite3无需独立的数据库服务器进程,整个数据库以单一文件形式存储在本地,应用程序可直接通过库文件进行读写操作。这种架构使其具有部署简单、占用资源少、跨平台性强等显著优势。SQLite3遵循ACID事务特性,能够保证数据的一致性与可靠性,同时支持标准SQL语法,包括表的创建、查询、索引、触发器等常见功能,能够满足中小规模数据管理需求。在性能方面,SQLite3在读操作上表现高效,并通过锁机制实现多线程环境下的基本并发控制。由于其零配置特性和稳定性,SQLite3被广泛集成于Android、iOS等操作系统中,也常用于缓存数据存储、本地日志管理以及离线数据处理等场景。总体而言,SQLite3以其简洁高效的设计理念,在轻量级数据管理领域占据了重要地位。
5.多线程
QThread 是 PyQt5 提供的线程类,主要用于在图形界面程序中安全、高效地执行耗时任务,从而避免主线程阻塞导致界面卡顿或无响应的问题。在典型的GUI应用中,界面渲染与用户交互通常运行在主线程,一旦在该线程中直接执行诸如数据处理、深度学习模型推理、视频流分析或文件读写等耗时操作,就容易造成界面冻结,严重影响用户体验。QThread 的引入正是为了解决这一问题。
通过 QThread,开发者可以将这些计算密集型或IO密集型任务封装到子线程中独立运行,使主线程专注于界面更新与交互响应。同时,QThread 提供了基于信号与槽机制的线程间通信方式,能够在不同线程之间安全地传递数据与状态信息。例如,子线程在完成检测或处理任务后,可以通过发送信号将结果传递给主线程,由主线程负责更新界面控件,从而避免直接跨线程操作UI带来的风险。
此外,QThread 还支持线程的生命周期管理,包括启动、暂停、退出以及资源回收等,使得多线程程序结构更加清晰可控。合理使用 QThread 不仅可以显著提升应用程序的响应速度和运行效率,还能增强系统的稳定性与扩展能力。在涉及实时数据处理、视频监控或智能分析等复杂桌面应用开发场景中,QThread 已成为不可或缺的重要工具。
6.车型检测的意义
1. 城市交通流量监测与管理
在智慧城市建设中,交通流量的精细化管理是核心环节。基于 YOLOv8 的车型检测能力,可以对公交车、小汽车、SUV、出租车和卡车进行实时分类识别,从而实现对不同车辆类型流量的统计分析。相比传统地磁或线圈检测方式,这种视觉方案覆盖范围更广、部署更灵活,尤其适合复杂路口或高架桥场景。
通过 PyQt5 构建的可视化界面,交通管理人员可以直观看到各车道车辆分布、密度变化以及高峰时段趋势,而结合 DeepSeek 的数据分析能力,还可以对历史数据进行模式挖掘,比如识别早晚高峰中出租车比例异常或货运车辆集中出现的时间段。这些信息可以用于动态信号灯控制、公交优先策略制定以及拥堵预警,从而提升整体道路通行效率。
2. 智慧停车场与商业综合体管理
在大型商场、写字楼或机场停车场中,车辆类型识别可以带来更精细的运营管理能力。例如,通过识别小汽车与SUV,可以合理分配车位尺寸;识别出租车可以引导其进入专用上下客区;识别卡车则可限制进入地下车库。
该系统通过 YOLOv8 实现入口视频流中的车辆检测,并在 PyQt5 界面中实时展示入场车辆信息,同时记录数据库。结合 DeepSeek 的语义分析能力,可以进一步实现"异常行为识别",例如某类车辆停留时间异常或频繁进出。
此外,该系统还能为商业分析提供支持,比如统计不同时间段SUV比例,从侧面反映消费群体结构变化;或者分析出租车流量与商场客流的相关性。这种数据驱动的运营方式,相比传统人工记录或简单计数器,具有更高的准确性与商业价值。
3. 公路收费站与物流运输监控
在高速公路收费站或物流园区,车辆类型直接关系到收费标准与运输调度效率。利用 YOLOv8 对卡车、公交车、小汽车等进行精准识别,可以实现自动分类计费或通行控制,减少人工干预。
系统可以通过 PyQt5 提供实时监控界面,显示当前通过车辆类别及数量,并自动记录日志。结合 DeepSeek 的分析能力,还可以对运输模式进行长期优化,例如识别某一时间段卡车流量激增,从而调整收费通道分配或开放更多货运通道。
此外,在物流园区中,该系统还可用于监控车辆调度情况,比如统计卡车等待时间、进出频率,从而优化仓储与装卸流程。这种基于视觉与AI的智能化方案,可以显著提升通行效率并降低人工成本,同时减少人为误判带来的经济损失。
4. 城市安防与异常行为监测
在城市安防领域,单纯检测"有无车辆"已经不够,更重要的是识别车辆类型及其行为模式。例如,在某些区域限制大型卡车通行,或者在夜间监控异常出租车聚集等情况。
通过 YOLOv8 的实时检测能力,可以快速识别进入监控区域的车辆类别,而 DeepSeek 则可以结合规则或历史数据判断是否存在异常行为,例如卡车进入禁行区域或公交车偏离固定路线。
PyQt5 界面可以将这些异常信息高亮显示,并触发报警机制,辅助安保人员快速响应。相比传统视频监控需要人工长时间盯屏,这种系统能够自动筛选"值得关注的事件",大幅提升安防效率。同时,通过长期数据积累,还可以构建区域车辆行为画像,为城市安全管理提供决策支持。
5. 自动驾驶与智能辅助系统数据支持
虽然该系统本身不直接用于自动驾驶控制,但它可以作为数据采集与验证工具,为自动驾驶算法训练提供高质量标注数据。通过 YOLOv8 对不同车型进行分类,可以生成结构化数据集,用于训练更复杂的感知模型。
结合 DeepSeek,可以对采集的数据进行语义标注或自动生成描述,例如"高峰期SUV占比上升"或"出租车集中出现在商业区"。这些信息对于交通行为建模和自动驾驶策略优化具有重要意义。
通过 PyQt5 构建的界面,开发人员可以方便地进行数据回放、标注校验和模型效果评估。这种系统在研发阶段尤其有价值,可以显著降低数据处理成本,加快模型迭代速度,从而推动自动驾驶技术的发展。
三.核心功能
1.登录注册
1.登录
软件启动后首先进入登录页面,用户需要输入正确的用户名和密码,经过系统验证后方可使用本系统的正式功能。登录页面整体采用垂直布局,使信息层次清晰、结构简洁,同时在局部区域辅以水平布局,以提升界面的灵活性与可读性。整体设计风格遵循"简约而不简单"的原则,在保证视觉美观的同时,也兼顾操作的直观性与易用性。
在功能实现方面,登录模块的后端采用sqlite3文件型数据库来存储用户信息,包括用户名、密码及相关基础数据。每次用户发起登录请求时,系统都会通过查询数据库进行身份校验,确保输入信息的准确性与安全性,从而实现规范化、标准化的登录流程。
同时,我们设计了统一风格的登录与注册界面,用于展示系统与用户交互所需的全部组件。界面顶部以醒目的标题形式展示系统名称,增强整体识别度与专业性。通过合理布局输入框、按钮及提示信息,使用户在使用过程中能够快速理解操作步骤,从而提升整体使用体验。

2.注册
对于尚未拥有账号的用户,需要先完成注册操作后才能使用系统功能。整体注册流程设计得较为简洁直观,用户只需在登录界面点击"注册"按钮,即可快速跳转至注册窗口,无需复杂的页面切换或额外步骤。在注册界面中,用户需要填写自定义的用户名,并输入两次一致的密码以完成身份信息的确认。这种双重密码输入机制可以有效避免因输入错误而导致的登录失败问题,从而提升系统的可靠性与用户体验。
在用户成功完成注册后,系统还提供了一项便捷的优化设计:自动将刚刚注册的用户名和密码填充到登录界面中。用户无需再次手动输入信息,即可直接进行登录操作。这一设计在一定程度上简化了登录流程路径,减少了重复操作,提高了整体使用效率。同时,该功能也体现了系统在交互细节上的人性化考虑,使用户在首次使用时能够获得更加顺畅和友好的体验。

2.主界面
用户通过输入自己的用户名和密码登录到本系统后进入主界面,主界面内容十分丰富,我来一一介绍:首先软件整体是垂直布局,顶部是系统的标题,从左到右依次展示了系统的作者信息、系统名称、当前时间以及CPU内存占用情况,下方为水平布局,左侧是系统的导航区域,我们设计了windows风格支持展开与收缩的内容导航区域,右侧是内容核心区域,通过点击导航按钮切换展示内容,主界面主要展示了以日期为维度统计的数据、用户信息操作按钮、系统信息、系统环境信息以及实时CPU、内存可视化折线图

3.图像检测界面
1.检测结果展示
用户通过点击左侧导航栏按钮切换到图像检测界面,在此界面支持选择图像进行输入,用户选择完之后被选择的图像会展示在左侧并且展示图像绝对路径信息,用户可以通过点击右侧的"进行检测"按钮对输入的图像数据进行检测,系统会自动调用YOLOv8相关算法根据指定的参数对输入图像内容进行检测,最后将检测结果展示到右侧,这样用户可以通过比对左右图像的区别得到直观的检测结果,系统自动使用红色边框框选出目标区域并且使用红色文字展示出目标类别以及它的置信度,这些参数和展示效果都可以在设置页面进行详细设置。

2.导出检测结果
我们在界面中专门设置了检测结果展示区域,用于集中呈现系统输出的信息。该区域不仅包含检测目标数量的统计展示,还提供了结构清晰的详细检测结果表格。通过这种方式,用户可以直观地查看每一条检测数据,包括目标类别、置信度以及对应位置信息等内容,从而更全面地了解检测情况。整体布局兼顾信息密度与可读性,使数据展示既完整又不显杂乱。
此外,在检测任务完成之后,界面右侧的三个功能按钮会自动由不可用状态切换为可点击状态,避免用户在未生成结果前进行误操作。这三个按钮分别承担不同的功能,其中"导出结果"按钮允许用户将检测数据保存到本地。系统支持多种导出格式,包括Excel、CSV以及TXT,用户可以根据实际需求灵活选择合适的文件类型,以便后续分析或归档使用。以Excel格式为例,导出的文件通常采用表格结构,对应字段清晰排列,便于用户进一步查看与处理数据。

3.可视化展示
然后就是可视化展示,用户可以点击进行可视化按钮,查看对于本次检测的可视化效果,系统内置了四种可视化效果:分别是:目标位置热力图、目标面积占比、置信度分布直方图、检测能力柱状图,这些图标通过不同维度对当前数据进行了可视化展示,更便于用户理解,这里指的一体的是,支持可视化图表进行导出操作,用户可以点击紫色的导出按钮,对当前的可视化效果图表进行导出,生成一张本地的PNG图像文件。

4.AI(DeepSeek)智能分析
在每次检测任务完成并展示检测结果之后,系统为用户提供了一种便捷且智能的交互方式:用户只需点击界面右下角悬浮的机器人图标,即可触发对当前检测结果的深度AI分析功能。系统会自动将本次检测所得到的所有关键信息------包括检测到的目标类别、置信度分数、目标位置坐标、数量统计以及可能存在的异常或遮挡情况等------完整地作为输入传递给后端AI大模型。AI模型接收到这些数据后,会基于其强大的语义理解与逻辑推理能力,对本次检测结果进行多维度的智能评估。评估内容可以包括:检测结果的准确性与可靠性判断、识别结果中可能存在的误检或漏检风险提示、针对当前场景的优化建议、对异常情况的详细解释,甚至能够根据历史检测数据的模式给出趋势分析或预警信息。这一设计不仅使用户无需手动复制或整理检测数据就能获得即时的专业分析反馈,更重要的是,它实现了一种通用化的AI能力接入机制:检测模块与分析模块实现了解耦,任何检测结果都可以以统一格式传递给AI进行分析,而AI的具体分析逻辑可以根据需要灵活替换、升级或定制。这使得系统在未来可以轻松扩展更多智能功能,例如接入不同的大模型、增加多模态分析能力、实现检测策略的自适应调整等,极大地提升了整个系统的可扩展性与智能化水平。
这里是软件的另外一个核心:AI智能分析,我们的目标检测系统接入了DeepSeek大模型,支持对当前检测结果数据进行AI分析,AI会通过不同维度对当前检测结果进行多角度分析,最后生成检测结果分析报告,用户可以根据这个结果对系统进行调整,不断完善系统功能和目标检测准确度!
在AI分析结束后下方会展示一些按钮,用户可以方便地复制结果、导出文本内容、生成PDF报告、重新生成以及关闭,多重的操作方式给于用户了多种选择!

4.视频检测界面
1.视频文件检测
我们的系统支持视频内容中的球体检测,支持输入的视频类型包括:视频文件、视频流以及摄像头,通过识别视频画面的内容对内容中的目标球体进行检测,试试标注与展示,通过相关帧率控制保证了视频的流畅性,用户可以通过比对左右两侧的画面使用肉眼评估当前检测结果,我们的视频检测界面拥有图像检测界面相同的操作功能,这里不多赘述。

2.摄像头内容检测
用户点击"进行检测"按钮之后系统会自动调用摄像头,打开摄像头展示摄像头画面,实时检测目标画面中的球体,通过左右画面比对让用户看到检测结果,这里本人就不露脸啦~
5.模型指标评估
在这个页面中我们通过三个tab展示了模型训练结果评估,分别是:训练结果图、训练结果详情、整体评估,所有的训练结果文件(夹)以及相关作用可见下面图标:
| 文件/文件夹名 | 类型 | 作用说明 |
|---|---|---|
weights/ |
文件夹 | 存放训练得到的模型权重 |
├─ best.pt |
文件 | 在验证集上表现最好的模型(推荐用于推理/部署) |
├─ last.pt |
文件 | 最后一轮训练结束时的模型(包含最新状态) |
results.csv |
文件 | 每个 epoch 的训练与验证指标(loss、mAP、precision 等) |
results.png |
图片 | 训练过程中各类指标变化曲线(loss、mAP 等可视化) |
confusion_matrix.png |
图片 | 混淆矩阵,展示类别预测情况 |
confusion_matrix_normalized.png |
图片 | 归一化后的混淆矩阵 |
PR_curve.png |
图片 | Precision-Recall 曲线 |
P_curve.png |
图片 | Precision 曲线 |
R_curve.png |
图片 | Recall 曲线 |
F1_curve.png |
图片 | F1-score 曲线 |
labels.jpg |
图片 | 数据集中标签分布(类别统计) |
labels_correlogram.jpg |
图片 | 标签相关性图(用于分析数据分布) |
train_batch*.jpg |
图片 | 训练批次样本可视化(带标注框) |
val_batch*.jpg |
图片 | 验证批次样本可视化 |
args.yaml |
文件 | 本次训练的完整参数配置(超参数、路径等) |
hyp.yaml(部分版本) |
文件 | 超参数配置(学习率、增强策略等) |
opt.yaml(旧版本可能有) |
文件 | 训练选项记录(已逐渐被 args.yaml 替代) |
events.out.tfevents.* |
文件 | TensorBoard 日志文件(用于可视化训练过程) |
1.训练结果图tab
本系统基于 PyQt5 + YOLOv8 + DeepSeek 构建,实现对口罩佩戴状态的智能检测与可视化分析。在结果展示模块的该 tab 页面中,集中呈现模型训练与评估阶段生成的多维度指标图像,包括训练损失与性能指标曲线图、PR 曲线、Precision 曲线、Recall 曲线、F1 曲线,以及混淆矩阵与归一化混淆矩阵。同时还提供标签分布图与标签相关性图,用于分析数据集结构与类别关系。
这些图像以直观的方式嵌入界面中,用户无需额外操作即可快速浏览模型整体表现。例如,PR 曲线可反映模型在不同阈值下的查准率与召回率平衡,F1 曲线用于综合衡量模型性能,而混淆矩阵则清晰展示分类正确与误判情况。标签分布与相关性图则有助于判断数据是否均衡及类别间的潜在关联。
在交互设计上,用户可通过点击图像本身,或点击底部提供的图像路径,调用系统默认图像查看工具进行放大查看,提升细节分析能力。每张图像下方均附有简明且专业的说明文案,帮助用户理解其评估意义及应用价值,从而更全面地掌握模型训练效果与优化方向。

2.训练结果详情tab
在该子 tab 页面中,系统进一步对训练过程中的 results.csv 数据进行了结构化展示。通过将原始训练日志解析为二维表格,完整呈现模型在每一轮(epoch)中的关键指标变化情况,使用户能够以更加清晰、系统化的方式回顾训练全过程。界面设计上采用了简洁清新的视觉风格,并结合横向渐变配色对不同数值区间进行区分,使数据变化趋势更加直观,重点指标一目了然。
表格中包含了完整的字段信息,例如"轮次"和"时间"用于标识训练进度;"训练/边界框损失""训练/分类损失""训练/DFL损失"反映模型在训练阶段的收敛情况;"指标/精确率(B)""指标/召回率(B)"以及"指标/mAP@0.5(B)"和"指标/mAP@0.5:0.95(B)"用于综合评估模型检测性能;对应的"验证/边界框损失""验证/分类损失""验证/DFL损失"则用于判断模型的泛化能力与是否存在过拟合现象。此外,"学习率/pg0""学习率/pg1""学习率/pg2"展示了不同参数组在训练过程中的学习率动态变化,有助于分析优化策略的效果。
在交互体验方面,表格支持滚动浏览与高亮显示,用户可以快速定位关键轮次的数据变化。同时结合渐变色视觉编码,能够快速识别性能提升或波动区间。通过这一模块,用户不仅可以精确掌握模型训练的细节,还能够为后续参数调优与模型改进提供可靠的数据支撑,实现从"可视化观察"到"数据驱动优化"的有效过渡。

3.整体评估tab
在该页面中,系统对模型训练结果进行了更高层次的综合评估与总结分析。通过对关键指标进行统一整理与可视化表达,结合细致的颜色编码机制,将不同阶段的性能变化趋势清晰呈现出来,使用户能够从整体上把握模型训练的动态过程,而不仅仅停留在单一指标的观察。
在评估维度上,系统重点围绕多个核心方面展开。首先是收敛质量 ,通过训练与验证损失曲线的变化趋势,判断模型是否稳定收敛以及是否存在震荡或过早收敛的问题;其次是检测性能 ,结合 Precision、Recall 以及 F1 等指标,分析模型在目标检测任务中的准确性与覆盖能力;在泛化能力 方面,通过对比训练集与验证集指标差异,评估模型是否存在过拟合或欠拟合现象;同时利用 mAP 综合表现 (包括 mAP@0.5 与 mAP@0.5:0.95)对模型整体检测能力进行量化衡量,从多阈值角度反映检测精度的稳定性。
此外,系统还对学习率调度策略 进行了分析,通过展示不同参数组学习率随训练轮次的变化情况,帮助用户判断当前优化策略是否合理,以及是否需要进一步调整以提升训练效率或稳定性。所有评估结果均通过分层颜色与趋势变化进行突出展示,使关键结论更加直观易读。
在页面的最后部分,系统基于上述多维度分析结果,自动生成整体评估结论,并从工程应用视角给出总结性判断。例如模型是否已达到可部署标准、是否需要继续训练或优化数据集、以及在实际口罩检测场景中的预期表现。这种从数据到结论的完整闭环设计,有助于用户快速完成模型质量评估,并为后续系统部署与迭代提供明确依据。

6.系统设置界面
我们的系统是支持简单的参数设置的,具体可以设置目标检测模型、置信度阈值(Conf)、交并比阈值(IOU)、还有一些检测结果控制参数,比如检测框展示、目标类别展示、目标置信度展示,用户可以点击绿色的刷新按钮刷新可用模型,亦可通过点击退出按钮退出系统或者退出登录,本设置页面实现了目标检测参数的灵活配置!

7.关于软件界面
我们使用富文本html的形式展示了软件相关的信息,包括系统用到的相关技术,对于二维的数据使用二维表进行了展示,最底部放置了四个按钮,分别是:关于YOLO、关于软件、关于作者、关于QT,点击之后都会弹出对应的信息提示框,这个页面的作用是让用户更多的了解软件和创作者信息,跨过技术的鸿沟!

四.数据集
本系统所使用的数据集围绕老鼠目标的多场景、多角度、多状态采集构建而成,旨在提升模型在真实环境中的适应性与鲁棒性。数据来源涵盖实验室、仓储区、地下室、户外夜间监控、粮仓、食品加工车间等多类复杂场景,结合不同光照条件、摄像头分辨率、遮挡程度与背景干扰,使模型能够学习到多样化的外观特征与环境变化。图像中包含站立、奔跑、觅食、半遮挡、远距离、小尺寸目标等多种姿态,并覆盖不同体型、颜色与运动模糊情况下的老鼠样本。数据集中不仅包含清晰标注的边界框,还对类别与置信度进行了严格校验,以确保训练时标签可信度和质量的一致性。经过清洗、去重、增强与格式化处理后,最终数据集能够满足 YOLOv8 等高性能检测模型的训练需求,使模型在实际部署中具备更强的泛化能力,即便在光照不足、目标部分遮挡或背景复杂的情况下,也能保持稳定识别效果。该数据集为系统实现高精度、高实时性的老鼠检测奠定了坚实基础。
1.数据准备
本系统附带699张不同车型图像和699个数据标注文件,大家可以根据自己的情况自行训练数据自己的模型!


我们使用VOC的格式存储数据标注文件,单数据标注文件内容如下:
bash
<annotation>
<folder>bus</folder>
<filename>bus_12.jpg</filename>
<path>F:\test for car\bus\bus_12.jpg</path>
<source>
<database>Unknown</database>
</source>
<size>
<width>1024</width>
<height>576</height>
<depth>3</depth>
</size>
<segmented>0</segmented>
<object>
<name>bus</name>
<pose>Unspecified</pose>
<truncated>0</truncated>
<difficult>0</difficult>
<bndbox>
<xmin>172</xmin>
<ymin>40</ymin>
<xmax>986</xmax>
<ymax>498</ymax>
</bndbox>
</object>
</annotation>
2.数据集处理
1.数据集标注文件类型转换
直接使用VOC格式的数据标注文件进行训练是不行的,需要我们将xml转成txt文件,
这段代码的作用是将指定文件夹中的 Pascal VOC 格式的 XML 标注文件批量转换为 YOLO 格式的 TXT 标注文件。它会先遍历所有 XML 自动统计有效类别并生成类别到 ID 的映射表,忽略类别名为 "not" 的标注,然后读取对应图片的尺寸,将 XML 中的边界框坐标转换为 YOLO 的归一化格式(class_id x_center y_center width height),最后将生成的 TXT 文件保存到指定目录中,便于直接用于 YOLO 训练。
大家首先执行step1_yolo_to_txt.py
python
import os
import xml.etree.ElementTree as ET
from PIL import Image
# 原始路径
xml_dir = r"F:\thunder_download\车辆类型数据集\annotation"
img_dir = r"F:\thunder_download\车辆类型数据集\images"
# YOLO标签输出路径
yolo_txt_dir = r"F:\thunder_download\车辆类型数据集\labels"
os.makedirs(yolo_txt_dir, exist_ok=True)
# ===== 自动生成类别映射 =====
class_map = {}
next_class_id = 0
# 支持的图像扩展
img_exts = [".jpg", ".jpeg", ".png", ".bmp"]
# 遍历 XML 文件
for xml_file in os.listdir(xml_dir):
if not xml_file.endswith(".xml"):
continue
xml_path = os.path.join(xml_dir, xml_file)
tree = ET.parse(xml_path)
root = tree.getroot()
# --- 以 XML 文件名匹配图像 ---
base = os.path.splitext(xml_file)[0]
img_path = None
for ext in img_exts:
candidate = os.path.join(img_dir, base + ext)
if os.path.exists(candidate):
img_path = candidate
break
if img_path is None:
print(f"Warning: 图像文件与 {xml_file} 同名的图片不存在,跳过")
continue
# 获取图像尺寸
try:
with Image.open(img_path) as img:
w, h = img.size
except Exception as e:
print(f"无法打开图片 {img_path}: {e}")
continue
txt_lines = []
# 遍历目标
for obj in root.findall("object"):
name_node = obj.find("name")
if name_node is None:
continue
label = name_node.text.strip()
# === 自动分配 class_id ===
if label not in class_map:
class_map[label] = next_class_id
next_class_id += 1
class_id = class_map[label]
bndbox = obj.find("bndbox")
if bndbox is None:
continue
xmin = float(bndbox.find("xmin").text)
ymin = float(bndbox.find("ymin").text)
xmax = float(bndbox.find("xmax").text)
ymax = float(bndbox.find("ymax").text)
x_center = ((xmin + xmax) / 2) / w
y_center = ((ymin + ymax) / 2) / h
box_width = (xmax - xmin) / w
box_height = (ymax - ymin) / h
txt_lines.append(
f"{class_id} {x_center:.6f} {y_center:.6f} {box_width:.6f} {box_height:.6f}"
)
# 保存 YOLO txt
txt_file_path = os.path.join(yolo_txt_dir, base + ".txt")
with open(txt_file_path, "w") as f:
f.write("\n".join(txt_lines))
# ===== 输出类别映射 =====
print("\n类别映射 class_map:")
for k, v in class_map.items():
print(f"{v}: {k}")
print(f"\n转换完成!YOLO TXT 文件已保存在: {yolo_txt_dir}")
2.数据集拆分
YOLO 推荐训练集和测试集按 8:2 划分,主要是因为目标检测对样本量非常依赖,需要尽可能多的训练数据来学习特征,同时又必须保留足够的独立测试数据来评估模型的真实泛化能力。8:2 被证明在"训练数据够多"与"测试评估足够稳定"之间取得了较好平衡,因此成为默认且通用的实践比例。
这个脚本的作用是从已有的图片和 YOLO 标注文件中随机抽取 200 张图片,并将它们按照训练集和验证集的比例进行划分,然后将对应的图片和 TXT 标注文件复制到新的数据集目录中,方便直接用于训练 YOLO 模型。脚本会先创建训练集和验证集的图片、标签子目录,然后随机选择 指定数量的张图片,其中 五分之一作为验证集,其余 五分之四作为训练集,复制过程中会保证每张图片对应的标注文件也被同步复制,如果标注文件不存在,会生成一个空的 TXT 文件,以保持文件结构完整。运行完成后,新的数据集就整理好了,可以直接用于训练和验证。。最终会在目标目录下生成:

执行脚本step2_auto_part.py
bash
import os
import random
import shutil
# 原始数据路径
img_dir = r"F:\thunder_download\车辆类型数据集\images"
label_dir = r"F:\thunder_download\车辆类型数据集\labels"
MAX_PIC = 200
# 新数据集路径
dataset_dir = r"F:\thunder_download\车辆类型数据集\dataset"
train_img_dir = os.path.join(dataset_dir, "train", "images")
train_label_dir = os.path.join(dataset_dir, "train", "labels")
val_img_dir = os.path.join(dataset_dir, "val", "images")
val_label_dir = os.path.join(dataset_dir, "val", "labels")
# 创建目录
for dir_path in [train_img_dir, train_label_dir, val_img_dir, val_label_dir]:
os.makedirs(dir_path, exist_ok=True)
# 获取所有图片文件
all_images = [f for f in os.listdir(img_dir) if f.lower().endswith((".jpg", ".png", ".jpeg"))]
# 随机抽取MAX_PIC张
if len(all_images) < MAX_PIC:
raise ValueError(f"图片数量不足{MAX_PIC}张,当前数量: {len(all_images)}")
selected_images = random.sample(all_images, MAX_PIC)
# 分割训练集和验证集
random.shuffle(selected_images)
val_images = selected_images[:40]
train_images = selected_images[40:]
def copy_files(image_list, target_img_dir, target_label_dir):
for img_file in image_list:
# 复制图片
src_img_path = os.path.join(img_dir, img_file)
dst_img_path = os.path.join(target_img_dir, img_file)
shutil.copy(src_img_path, dst_img_path)
# 对应的txt
label_file = os.path.splitext(img_file)[0] + ".txt"
src_label_path = os.path.join(label_dir, label_file)
if os.path.exists(src_label_path):
dst_label_path = os.path.join(target_label_dir, label_file)
shutil.copy(src_label_path, dst_label_path)
else:
# 如果没有对应txt文件,创建一个空文件
open(os.path.join(target_label_dir, label_file), "w").close()
# 复制训练集
copy_files(train_images, train_img_dir, train_label_dir)
# 复制验证集
copy_files(val_images, val_img_dir, val_label_dir)
print(f"随机抽取完成!训练集: {len(train_images)} 张,验证集: {len(val_images)} 张")
print(f"数据集路径: {dataset_dir}")
3.模型训练
数据集准备好之后就可以开始模型训练了,我们首先准备一个训练的配置文件,比如说是data.yaml

然后就可以开始模型训练了,直接执行我们准备好的train.bat文件,内容就是下面的内容
bash
yolo task=detect mode=train model=../data/model/yolov8n.pt data=./data.yaml epochs=30 imgsz=640 batch=16 lr0=0.01
用户亦可执行step3_train_model.py脚本进行模型训练
python
from ultralytics import YOLO
def main():
# 加载模型
model = YOLO("../data/model/yolov8n.pt")
# 开始训练
model.train(
data="./data.yaml", # 数据集配置
epochs=50, # 训练轮数
imgsz=640, # 输入尺寸
batch=16, # batch size
lr0=0.01, # 初始学习率
task="detect" # 任务类型
)
if __name__ == "__main__":
main()
然后模型就开始训练了
这里我贴一些训练验证结果截图



最后的results.png见下图,训练效果还是可以的!
本次 YOLOv8 摔倒检测模型的训练过程整体呈现稳定收敛趋势,从整体训练过程来看,本次模型收敛趋势较为明显且稳定。前10个epoch中,train各项loss(box、cls、dfl)快速下降,说明模型已初步学习到目标特征,但precision与mAP较低且波动较大,表明早期预测不稳定、误检较多。第6轮开始precision突然升高但recall偏低,说明模型趋于保守,存在漏检问题。随着训练推进(约epoch 15之后),recall与mAP持续提升,尤其mAP50从0.28提升至0.71以上,mAP50-95稳定在0.28~0.32区间,说明检测框质量和定位精度逐步改善。后期(30 epoch以后)loss下降趋缓,val_loss同步降低且与train_loss差距不大,未出现明显过拟合,泛化能力尚可。学习率呈典型先升后降策略,与性能提升趋势基本匹配。最终precision约0.80、recall约0.63,说明模型在准确率与召回率之间取得一定平衡,但召回仍有提升空间。总体来看训练效果良好,模型已基本收敛,但若需进一步提升性能,可考虑增加数据多样性或优化阈值与损失权重配置。
bash
# 🚗 基于 PyQt5 + YOLOv8 + DeepSeek 的车型检测系统训练评估报告
---
## 📊 一、整体训练结论
整体来看,本次训练呈现出:
> ✅ **收敛稳定 + 性能持续提升 + 后期表现优异**
模型已经达到**可部署级别**,在公交车、小汽车、SUV、出租车、卡车五类目标检测任务中具备良好的实用价值。
---
## 🔻 二、收敛质量分析(Loss)
### 📉 训练集(train loss)
三项核心 loss 均呈现**持续下降 + 无震荡发散**:
| 指标 | 初期 | 最终 | 变化趋势 |
|------|------|------|----------|
| box_loss | 0.57 | **0.19** | ⬇ 持续下降 |
| cls_loss | 2.90 | **0.36** | ⬇ 大幅优化 |
| dfl_loss | 1.17 | **0.85** | ⬇ 稳定收敛 |
👉 说明:
- 分类能力显著增强(cls_loss下降明显)
- 边框回归逐步精细化(box_loss下降)
- 定位分布学习稳定(dfl_loss平滑)
---
### 📊 验证集(val loss)
验证集 loss 与训练集变化趋势一致:
- val/box_loss:0.38 → **0.26**
- val/cls_loss:3.41 → **0.61**
- val/dfl_loss:1.02 → **0.86**
👉 结论:
> ✅ **无明显过拟合**
> ✅ **泛化能力良好**
> ✅ **训练-验证一致性强**
---
## 🎯 三、检测性能分析(核心指标)
### 📈 mAP 提升过程
| 阶段 | mAP50 | mAP50-95 | 特点 |
|------|------|----------|------|
| 初期 (1--5) | 0.39 → 0.84 | 0.34 → 0.65 | 快速学习 |
| 中期 (6--20) | 0.88 → 0.97 | 0.76 → 0.85 | 稳定提升 |
| 后期 (21--50) | **0.97+** | **0.90+ → 0.95+** | 高质量收敛 |
---
### 🚀 最佳性能
- **mAP50:≈ 0.979**
- **mAP50-95:≈ 0.959(epoch 50)**
👉 表现说明:
> 🔥 已达到**高精度检测模型水平(工业可用)**
---
## ⚖️ 四、Precision / Recall 平衡
| 指标 | 范围 | 评价 |
|------|------|------|
| Precision | 0.85 -- **0.97** | 极高 |
| Recall | 0.90 -- **0.98** | 极高 |
👉 关键观察:
- 后期(epoch 40+):
- Precision 与 Recall **同时接近 1**
- 无明显 trade-off
> ✅ 属于**高精度 + 高召回双优模型**
---
## 🧠 五、训练动态分析
### 📌 阶段性特征
#### 🟢 1. 快速学习阶段(1--10 epoch)
- 指标迅速跃升
- 模型完成基础特征学习
#### 🔵 2. 稳定优化阶段(10--30 epoch)
- mAP 持续增长
- loss 平稳下降
#### 🟣 3. 收敛强化阶段(30--50 epoch)
- 指标进入平台期
- 小幅震荡但整体最优
---
## ⚙️ 六、学习率策略分析
- 初始上升至:≈ **1e-3**
- 最终下降至:≈ **3e-5**
👉 特点:
- 标准 YOLOv8 cosine/linear decay 策略
- 后期低学习率带来性能精细提升
> ✅ 学习率调度合理,无异常震荡
---
## 🏆 七、最佳模型区间
推荐权重区间:
> 🎯 **epoch 43 -- 50**
理由:
- mAP50-95 ≥ **0.95**
- Precision / Recall 同时最优
- val loss 最低区间
---
## 🚧 八、潜在优化空间
尽管表现优秀,仍可进一步优化:
### 1️⃣ 数据层面
- 增加复杂天气(雨/夜)
- 增加遮挡场景(拥堵路况)
### 2️⃣ 模型层面
- 尝试:
- YOLOv8m / YOLOv8l
- Attention机制(如CBAM)
### 3️⃣ 部署层面
- TensorRT 加速
- ONNX 推理优化
---
## 🧾 九、工程结论
### ✅ 当前模型状态:
> 🟢 **可直接部署(Production Ready)**
具备能力:
- 高精度车辆识别(5类)
- 稳定检测表现
- 良好泛化能力
---
## 🎯 十、综合评级
| 维度 | 评分 |
|------|------|
| 收敛性 | ⭐⭐⭐⭐⭐ |
| 精度 | ⭐⭐⭐⭐⭐ |
| 稳定性 | ⭐⭐⭐⭐⭐ |
| 泛化能力 | ⭐⭐⭐⭐☆ |
| 工程可用性 | ⭐⭐⭐⭐⭐ |
---
# 🏁 最终结论
> 🚀 本模型训练质量高、指标优秀、结构稳定
> 👉 是一个**可落地应用的高性能车型检测系统**
---
在这里插入图片描述
五.关于项目
1.开发环境
本系统是在 Windows 11 操作系统上进行开发的,Python 环境采用的是 Python 3.8 版本,硬件方面使用的是 AMD 处理器 ,未配备独立显卡,开发工具为 PyCharm 2021.3 版本。在整个开发与测试过程中,我们严格遵循了上述环境配置,确保了系统的稳定运行。在此特别建议所有使用者:为了避免出现因版本过新而导致的"不兼容"情况,请大家尽量不要使用过高的 Python 版本(如 Python 3.11 及以上),也不要使用最新的 PyCharm 或操作系统版本。因为较新的环境可能对部分依赖库或语法特性支持不佳,容易引发意外的报错或功能异常。遵循本项目所推荐的版本配置,能够最大程度地保证系统的顺利部署与稳定运行。
2.项目部署
1.项目依赖
博主是在Windows电脑上使用Python3.8开发的本系统,建议大家使用的Python版本别太高。
其中项目依赖为:
bash
PyQt5==5.15.11
QtAwesome==1.3.1
torch==2.4.1
torchvision==0.19.1
Pillow==9.3.0
pyqtgraph===0.13.3
PyQtWebEngine==5.15.5
opencv-python==4.10.0.82
ultralytics==8.3.234
Requests==2.32.5
pandas==2.0.3
numpy==1.24.4
Markdown==3.4.4
我已经整理到了requirements.txt,大家直接使用命令
pip install -r requirements.txt
即可一键安装项目依赖,其中的torch和torchvision只要匹配即可,不一定非要和博主开发环境的版本一致。
2.项目结构
很多小伙伴担心拿到代码后项目看不懂,这个大家不必担心,我们采用文件+类名对相关功能进行了模块化定义,大家见名知意。
下图博主采用tree命令生成了文件、目录树
bash
tree "D:\projects\gitee\2026\yolo_projects\yolov8-vehicle-type-detect" /f /a
bash
D:\PROJECTS\GITEE\2026\YOLO_PROJECTS\yolov8-vehicle-type-detect
| main.py(系统入口)
| requirements.txt(项目依赖)
|
+---data(数据目录)
| +---database(数据库)
| | data.db
| |
| |
| +---font(字体目录)
| | hanyi_yahei.ttf
| |
| \---model(模型目录)
| best.pt
| yolov8n.pt
|
+---model_train(模型训练脚本目录)
| | data.yaml
| | step1_yolo_to_txt.py
| | step2_auto_part.py
| | step3_train_model.py
| | step4_test_model.py
| | train.bat
| |
| +---runs
| | \---detect
| | \---train
| | | args.yaml
| | | confusion_matrix.png
| | | confusion_matrix_normalized.png
| | | events.out.tfevents.1776169070.Admin.10148.0
| | | F1_curve.png
| | | labels.jpg
| | | labels_correlogram.jpg
| | | PR_curve.png
| | | P_curve.png
| | | results.csv
| | | results.png
| | | R_curve.png
| | | train_batch0.jpg
| | | train_batch1.jpg
| | | train_batch2.jpg
| | | train_batch400.jpg
| | | train_batch401.jpg
| | | train_batch402.jpg
| | | val_batch0_labels.jpg
| | | val_batch0_pred.jpg
| | | val_batch1_labels.jpg
| | | val_batch1_pred.jpg
| | |
| | \---weights
| | best.pt
| | last.pt
| |
| \---test_images
| train_5.jpg
|
+---script
| create_qrc.py
|
\---src(项目源码目录)
+---conf(配置目录)
| icon_conf.py
| style_conf.py
| system_conf.py
| test_data.py
| __init__.py
|
+---engine(引擎目录)
| engines.py
| __init__.py
|
+---resource(资源目录)
| | resource.qrc
| | resource_rc.py
| | __init__.py
| |
| +---imgs
| | ai.gif
| | ai.svg
| | bg.jpeg
| | login_gif.gif
| |
| \---js
| echarts.min.js
|
+---threads(线程目录)
| main_threads.py
| signal_bus.py
| __init__.py
|
+---utils(工具目录)
| custom_utils.py
| user_manager.py
| __init__.py
|
\---widgets(核心组件目录)
base_widgets.py
custom_pages.py
custom_widgets.py
main_page.py
unique_widgets.py
__init__.py

3.项目启动
本系统的项目启动十分简单:在安装好所有相关依赖之后,直接执行 main.py 文件,即可自动打开系统的登录注册页面。用户进入该页面后,通过输入匹配的用户名和密码完成登录操作。为方便初次体验,系统内置了一个默认账号,用户名为 admin,密码也为 admin,用户可以直接使用这组账号进行快速登录。当用户成功登录后,系统主界面会完整展示出来,而之前的登录注册页面则会自动隐藏,从而为用户提供清晰、流畅的操作体验。
4.往期优秀作品
六.总结
基于PyQt5+YOLOv8+DeepSeek的车型检测系统的提出,源于智慧交通管理与智能安防需求持续提升的时代背景。随着城市机动车数量的快速增长以及道路交通环境日趋复杂,对不同类型车辆(如公交车、小汽车、SUV、出租车、卡车)的精准识别与分类管理,已成为交通监管与数据分析中的关键环节。然而,传统依赖人工统计或基础监控的方式不仅效率低下,而且难以及时、准确地完成多类别车辆的识别与记录,亟需更加智能化的技术手段加以支撑。
与此同时,计算机视觉技术在深度学习的推动下取得了显著进展,尤其是以YOLOv8为代表的目标检测模型,在实时性与检测精度方面表现突出,能够高效识别多种车型目标;PyQt5在桌面应用开发领域成熟稳定,为系统提供了良好的图形化交互界面和清晰的业务逻辑组织方式,使得系统具备较强的可用性与扩展性;而DeepSeek类语言模型的引入,使系统在检测结果分析、异常情况解释以及自动生成统计报告和智能参数调优等方面具备更高层次的智能化能力。三者的融合,使车型检测从单一的视频识别功能,升级为集检测、分析、交互与智能辅助于一体的综合系统。
该系统的意义体现在多个层面:在交通管理层面,它能够在城市道路、停车场、高速收费站等场景中实现对不同类型车辆的实时检测与分类统计,提高交通管理与调度效率;在技术层面,它体现了深度学习视觉算法与智能交互技术的有机融合;在产业层面,它为智慧交通与智慧城市建设提供了更加高效、智能的解决方案;在社会价值层面,它有助于提升交通运行效率、优化资源配置,并为交通规划与决策提供数据支持。
总体来看,该系统不仅是多种前沿技术融合的成果,更是面向实际交通场景需求的创新实践,具有良好的应用前景与推广价值。
本次给大家介绍了我使用PyQt5+YOLOv8+DeepSeek的车型检测系统,本系统功能强大,支持多种数据源输入,包含多种用户交互按钮以及模式,内置数据可视化方案、大模型AI加持,是您学习、工作使用的不错选择!
需要代码的朋友可以点击箭头下方的二维码加我好友,欢迎您了解!
如需帮助请私聊博主!





