《------往期经典推荐------》
二、机器学习实战专栏【链接】 ,已更新31期,欢迎关注,持续更新中~~
三、深度学习【Pytorch】专栏【链接】
四、【Stable Diffusion绘画系列】专栏【链接】
五、YOLOv8改进专栏【链接】,持续更新中~~
六、YOLO性能对比专栏【链接】,持续更新中~
《------正文------》
基本功能演示
视频演示地址:https://www.bilibili.com/video/BV1C7wezdEDk
摘要:低空经济下,无人机成为交通监控关键节点,但传统水平框检测在俯视视角下易受背景干扰且无法获取车辆朝向。基于YOLO的旋转框(OBB)检测系统突破了这一局限,不仅能精准定位,还能实时解算车辆的长、宽及角度,完整还原其真实姿态与空间占用。本文基于
YOLO26深度学习框架,通过17325张实际场景中无人机视角车辆相关图片,训练一个车辆检测模型,并且采用了最新的旋转框检测技术,其相对于传统的水平框检测,结果更加精准可靠。最终基于训练好的模型制作了一款带UI界面的无人机视角车辆检测系统,更便于进行功能的展示。该系统是基于python与PyQT5开发的,支持图片、视频以及摄像头进行目标检测,并保存检测结果。本文提供了完整的Python代码和使用教程,给感兴趣的小伙伴参考学习,完整的代码资源文件获取方式见文末。
文章目录
- 基本功能演示
- 研究背景
- 旋转框检测优势
- 系统应用场景
- 主要工作内容
- 一、软件核心功能介绍及效果演示
- 二、模型的训练、评估与推理
-
- 1.YOLO26介绍
- YOLO26创新点
-
- [1. 移除DFL模块,简化预测流程](#1. 移除DFL模块,简化预测流程)
- [2. 端到端无NMS推理,降低 latency](#2. 端到端无NMS推理,降低 latency)
- [3. ProgLoss+STAL,提升检测精度](#3. ProgLoss+STAL,提升检测精度)
- [4. MuSGD优化器,强化训练稳定性](#4. MuSGD优化器,强化训练稳定性)
- 数据集准备与训练
-
- [1. 数据集准备](#1. 数据集准备)
- 2.模型训练
- 自定义数据集格式
-
- [3. 训练结果评估](#3. 训练结果评估)
- [4. 使用模型进行推理](#4. 使用模型进行推理)
- 四、可视化系统制作
- 【获取方式】
研究背景
随着低空经济的崛起,无人机已成为城市感知与交通监控的关键节点。然而,传统基于水平矩形框(Axis-Aligned Bounding Box)的目标检测算法在处理无人机俯视视角时存在显著局限:当车辆倾斜停放、位于弯道或密集拥堵时,水平框会包含大量背景噪声(如相邻车道、绿化带),导致定位精度下降且无法获取车辆真实的朝向信息。基于YOLO框架研发的无人机视角旋转框(OBB)车辆检测系统,突破了这一瓶颈。该系统不仅能精准锁定车辆位置,更能通过旋转框实时解算每辆车的长、宽及精确旋转角度,还原车辆在真实世界中的姿态与占据空间。这一技术革新极大提升了复杂场景下的检测信噪比,为高精度交通流量统计、违章行为分析(如逆向行驶)、自动驾驶高精地图更新及智慧停车管理提供了不可或缺的细粒度数据支撑,是推动城市交通治理从"粗放式监控"向"精细化感知"跨越的重要引擎。
旋转框检测优势
本文采用的是旋转框目标检测模型,为什么采用旋转框检测而不采用传统的水平框检测呢?因为其相较于传统水平框的目标框(Axis-Aligned Bounding Box, AABB)具有以下优势:
1. 更紧密的物体包围

示例:图中蓝色框为传统水平框检测结果,红色为旋转框检测结果
问题:传统框是水平和垂直的矩形,无法贴合倾斜或长宽比悬殊的物体(如车辆、船只、文本等),导致框内包含大量无关背景区域。
优势:旋转框通过引入角度参数(如旋转角或方向角),能更精确地贴合物体轮廓,减少冗余背景,提升检测的语义准确性。
2. 减少密集场景中的重叠问题

示例:左图为传统水平框检测结果,右图为旋转框检测结果
问题:传统框在物体密集或排列不规则时,检测框容易大面积重叠,导致非极大值抑制(NMS)误删正确检测。
优势:旋转框通过角度对齐物体,降低框之间的重叠率,缓解NMS的误判问题,提升召回率。
3. 提升倾斜物体的检测精度
问题:传统框对倾斜物体的标注会引入大量背景噪声,导致分类置信度下降或定位误差增大。
优势:旋转框通过方向感知建模,更适应物体的几何特性,尤其适合处理具有显著方向性的目标(如飞机、风力发电机叶片)。
示例:
航拍图像中不同朝向的飞机、医学影像中倾斜的器官结构。
4. 支持更复杂的下游任务

优势:旋转框提供的角度和形状信息可直接用于后续任务,如:
实例分割:更精准的物体掩膜生成。
姿态估计:结合角度信息推断物体朝向。
运动预测(如自动驾驶):通过方向角预判车辆行驶轨迹。
5. 特定领域的必要需求
遥感图像:建筑物、农田等目标通常具有任意方向,传统框难以满足检测需求。
文档分析:倾斜或弯曲的文本行需要旋转框准确定位。
工业检测:机械零件、PCB板元件的方向对缺陷检测至关重要。
6. 更严格的评估指标
传统IoU(交并比)对旋转框不敏感,旋转框通常使用 旋转IoU(Rotated IoU) 或 方向敏感损失函数,能更真实反映模型性能。
局限性
尽管旋转框有上述优势,但也面临挑战:
标注成本高:需要标注角度,工具和人工成本更高。
模型复杂度:需设计角度回归分支,可能增加训练难度。
计算开销:旋转框的IoU计算复杂度高于传统框。
总的来说,旋转框在密集场景、倾斜物体、方向敏感任务中优势显著,但其适用性需结合具体场景权衡。传统框因简单高效,仍是通用场景的主流选择,而旋转框是特定领域(如遥感、文本检测)的重要补充。
系统应用场景
交通流量分析:利用旋转框角度精准区分车道,解决跨道误检;实时统计车流、车型及排队长度,分析变道意图,辅助信号灯智能配时。
智慧停车监测:通过长宽与角度数据,精准识别压线、斜停等不规范行为,生成车位热力图以引导泊车,提升空间利用率。
安保违停执法:自动识别禁停区车辆,结合角度与尺寸判断滞留时长及车型,辅助非现场执法取证。
车路协同增强:补充路侧感知盲区,向网联车辆下发全局位置、朝向及尺寸数据,助力车辆预判轨迹与冲突。
主要工作内容
本文的主要内容包括以下几个方面:
搜集与整理数据集:搜集整理实际场景中无人机视角车辆的相关数据图片,并进行相应的数据处理,为模型训练提供训练数据集;训练模型:基于整理的数据集,根据最前沿的YOLO26旋转框检测技术训练目标检测模型,实现对需要检测的对象进行有效检测的功能;模型性能评估:对训练出的模型在验证集上进行了充分的结果评估和对比分析,主要目的是为了揭示模型在关键指标(如Precision、Recall、mAP50和mAP50-95等指标)上的表现情况。可视化系统制作:基于训练出的目标检测模型,搭配Pyqt5制作的UI界面,用python开发了一款界面简洁的软件系统,可支持图片、视频以及摄像头检测,同时可以将图片或者视频检测结果进行保存。其目的是为检测系统提供一个用户友好的操作平台,使用户能够便捷、高效地进行检测任务。
软件初始界面如下图所示:

检测结果界面如下:

注:右侧窗口中上面窗口为原始图片,下方窗口为图片检测结果。
一、软件核心功能介绍及效果演示
软件主要功能
1. 可用于实际场景中的无人机视角车辆检测,分2个检测类别:['小型车辆','大型车辆'];
2. 支持图片、视频及摄像头进行检测,同时支持图片的批量检测;
3. 界面可实时显示目标位置、目标总数、置信度、用时等信息;
4. 支持图片或者视频的检测结果保存;
5. 支持将图片的检测结果保存为csv文件;
界面参数设置说明

置信度阈值:也就是目标检测时的conf参数,只有检测出的目标框置信度大于该值,结果才会显示;
交并比阈值:也就是目标检测时的iou参数,对检测框重叠比例iou大于该阈值的目标框进行过滤【也就是说假如两检测框iou大于该值的话,会过滤掉其中一个,该值越小,重叠框会越少】;
检测结果说明

显示标签名称与置信度:表示是否在检测图片上标签名称与置信度,显示默认不勾选,如果勾选则会在检测图片上显示标签名称与置信度;
总目标数:表示画面中检测出的目标数目;
目标选择:可选择单个目标进行位置信息、置信度等信息查看。
旋转框相关信息:
中心点坐标:表示旋转矩形框的中心点位置坐标;
旋转角度(°):表示矩形框长边与水平线之间小于90°的夹角;
旋转框长:表示旋转框的长边长度(px像素单位);
旋转框宽:表示旋转框的宽长度(px像素单位);
主要功能说明
功能视频演示见文章开头,以下是简要的操作描述。
(1)图片检测说明
点击打开图片按钮,选择需要检测的图片,或者点击打开文件夹按钮,选择需要批量检测图片所在的文件夹,操作演示如下:
点击目标下拉框后,可以选定指定目标的结果信息进行显示。
点击保存按钮,会对检测结果进行保存,存储路径为:save_data目录下,同时会将图片检测信息保存csv文件。
注:1.右侧目标位置默认显示置信度最大一个目标位置,可用下拉框进行目标切换。所有检测结果均在左下方表格中显示。
(2)视频检测说明
点击视频按钮,打开选择需要检测的视频,就会自动显示检测结果,再次点击可以关闭视频。
点击保存按钮,会对视频检测结果进行保存,存储路径为:save_data目录下。
(3)摄像头检测说明
点击打开摄像头按钮,可以打开摄像头,可以实时进行检测,再次点击,可关闭摄像头。
(4)保存图片与视频检测说明
点击保存按钮后,会将当前选择的图片【含批量图片】或者视频的检测结果进行保存,对于图片图片检测还会保存检测结果为csv文件,方便进行查看与后续使用。检测的图片与视频结果会存储在save_data目录下。
【注:暂不支持视频文件的检测结果保存为csv文件格式。】
保存的检测结果文件如下:

图片文件保存的csv文件内容如下,包括图片路径、目标在图片中的编号、目标类别、置信度、中心点坐标、旋转框长、旋转框宽、旋转角度。

二、模型的训练、评估与推理
1.YOLO26介绍
本项目采用的是最新的YOLO26模型。YOLO26 是 Ultralytics 2026 年 1 月推出的新一代计算机视觉模型,主打边缘优先、高效部署。它采用端到端免 NMS 架构,移除 DFL 模块,CPU 推理速度较前代提升 43%;搭配 MuSGD 优化器与 ProgLoss+STAL 损失策略,强化小目标检测能力,支持检测、分割、姿势估计等多任务,可无缝适配树莓派、嵌入式设备等终端,广泛应用于智慧农业、安防监控等领域。
YOLO各版本性能对比:

YOLO26创新点
YOLO26的性能飞跃源于四大核心技术创新,从模型架构到训练机制全面优化:
1. 移除DFL模块,简化预测流程
早期YOLO模型依赖分布焦点损失(DFL)提升边界框精度,但这一模块增加了部署复杂度,且存在固定回归限制。YOLO26彻底移除DFL,不仅简化了边界框预测逻辑,提升了硬件兼容性,还解决了超大目标检测的可靠性问题,让模型在边缘设备上的导出与运行更顺畅。
2. 端到端无NMS推理,降低 latency
传统目标检测需通过非极大值抑制(NMS)进行后处理,过滤重叠预测框------这一步骤会增加延迟、提升部署难度。YOLO26采用原生端到端架构,直接输出最终预测结果,内部自动处理重复预测,彻底省去NMS环节,大幅降低推理延迟与集成风险,完美适配实时边缘场景。
3. ProgLoss+STAL,提升检测精度
- 渐进式损失平衡(ProgLoss):让模型训练过程更稳定,收敛更平滑,减少训练波动
- 小目标感知标签分配(STAL):针对小目标、低可见度目标优化学习机制,解决边缘场景中"难检测"问题
两项技术结合,让YOLO26在复杂场景中仍能保持高可靠检测,尤其适用于物联网、机器人、航拍等小目标密集场景。
4. MuSGD优化器,强化训练稳定性
YOLO26采用全新混合优化器MuSGD,融合传统随机梯度下降(SGD)的强泛化能力与大语言模型(LLM)训练中的先进优化思路。该优化器灵感源自Moonshot AI的Kimi K2,能让模型更快达到高性能水平,同时降低训练不稳定性,尤其在大型复杂数据集训练中表现突出。
数据集准备与训练
本文主要基于YOLO26n-obb旋转框检测模型进行模型的训练,训练完成后对模型在验证集上的表现进行全面的性能评估。总体流程包括:数据集准备、模型训练、模型评估。
1. 数据集准备
通过网络上搜集关于实际场景中无人机视角车辆的相关图片,并使用roLabelImg标注工具对每张图片进行标注,分2个检测类别:['小型车辆','大型车辆']。
最终数据集一共包含17325张图片,其中训练集包含12118张图片,验证集包含2599张图片,测试集包含2608张图片。
部分数据集图像及标注如下图所示:



数据集各类别数目分布情况如下:

2.模型训练
准备好数据集后,将图片数据以如下格式放置在项目目录中。在项目目录中新建datasets目录,同时将检测的图片分为训练集与验证集放入Data目录下。

自定义数据集格式
数据集格式

YOLO OBB格式通过其四个角点指定边界框,坐标在0和1之间归一化。它遵循以下格式:
python
class_index, x1, y1, x2, y2, x3, y3, x4, y4
在内部,YOLO以xywhr格式处理损失和输出,该格式表示边界框的中心点(xy)、宽度、高度和旋转。

同时我们需要新建一个data.yaml文件,用于存储训练数据的路径及模型需要进行检测的类别。YOLOv11在进行模型训练时,会读取该文件的信息,用于进行模型的训练与验证。data.yaml的具体内容如下:
python
#Dataset configuration.
train: E:\MyCVProgram\4obbProgram\DroneViewVehicle_26\datasets\train\images
val: E:\MyCVProgram\4obbProgram\DroneViewVehicle_26\datasets\val\images
test: E:\MyCVProgram\4obbProgram\DroneViewVehicle_26\datasets\test\images
#Class numbers.
nc: 2
#Class names.
names: ['small-vehicle','large-vehicle']
注:train与val后面表示需要训练图片的路径,建议直接写自己文件的绝对路径。
数据准备完成后,通过调用train.py文件进行模型训练,epochs参数用于调整训练的轮数,batch参数用于调整训练的批次大小【根据内存大小调整,最小为1】,optimizer设定的优化器为SGD,训练代码如下:
python
#coding:utf-8
from ultralytics import YOLO
import matplotlib
matplotlib.use('TkAgg')
# 模型配置文件
model_yaml_path = "ultralytics/cfg/models/26/yolo26-obb.yaml"
#数据集配置文件
data_yaml_path = r'datasets/data.yaml'
#预训练模型
pre_model_name = 'yolo26n-obb.pt'
if __name__ == '__main__':
#加载预训练模型
model = YOLO(model_yaml_path).load(pre_model_name)
#训练模型
results = model.train(data=data_yaml_path,
epochs=150,
batch=32,
name='train_26')
模型常用训练超参数参数说明:
模型的训练设置包括训练过程中使用的各种超参数和配置。这些设置会影响模型的性能、速度和准确性。关键的训练设置包括批量大小、学习率、动量和权重衰减。此外,优化器、损失函数和训练数据集组成的选择也会影响训练过程。对这些设置进行仔细的调整和实验对于优化性能至关重要。
以下是一些常用的模型训练参数和说明:
| 参数名 | 默认值 | 说明 |
|---|---|---|
model |
None |
指定用于训练的模型文件。接受指向 .pt 预训练模型或 .yaml 配置文件。对于定义模型结构或初始化权重至关重要。 |
data |
None |
数据集配置文件的路径(例如 coco8.yaml).该文件包含特定于数据集的参数,包括训练数据和验证数据的路径、类名和类数。 |
epochs |
100 |
训练总轮数。每个epoch代表对整个数据集进行一次完整的训练。调整该值会影响训练时间和模型性能。 |
patience |
100 |
在验证指标没有改善的情况下,提前停止训练所需的epoch数。当性能趋于平稳时停止训练,有助于防止过度拟合。 |
batch |
16 |
批量大小,有三种模式:设置为整数(例如,' Batch =16 '), 60% GPU内存利用率的自动模式(' Batch =-1 '),或指定利用率分数的自动模式(' Batch =0.70 ')。 |
imgsz |
640 |
用于训练的目标图像尺寸。所有图像在输入模型前都会被调整到这一尺寸。影响模型精度和计算复杂度。 |
device |
None |
指定用于训练的计算设备:单个 GPU (device=0)、多个 GPU (device=0,1)、CPU (device=cpu),或苹果芯片的 MPS (device=mps). |
workers |
8 |
加载数据的工作线程数(每 RANK 多 GPU 训练)。影响数据预处理和输入模型的速度,尤其适用于多 GPU 设置。 |
name |
None |
训练运行的名称。用于在项目文件夹内创建一个子目录,用于存储训练日志和输出结果。 |
pretrained |
True |
决定是否从预处理模型开始训练。可以是布尔值,也可以是加载权重的特定模型的字符串路径。提高训练效率和模型性能。 |
optimizer |
'auto' |
为训练模型选择优化器。选项包括 SGD, Adam, AdamW, NAdam, RAdam, RMSProp 等,或 auto 用于根据模型配置进行自动选择。影响收敛速度和稳定性 |
lr0 |
0.01 |
初始学习率(即 SGD=1E-2, Adam=1E-3) .调整这个值对优化过程至关重要,会影响模型权重的更新速度。 |
lrf |
0.01 |
最终学习率占初始学习率的百分比 = (lr0 * lrf),与调度程序结合使用,随着时间的推移调整学习率。 |
3. 训练结果评估
在深度学习中,我们通常用损失函数下降的曲线来观察模型训练的情况。YOLO26在训练时主要包含三个方面的损失:定位损失(box_loss)、分类损失(cls_loss)和动态特征损失(dfl_loss),在训练结束后,可以在runs/目录下找到训练过程及结果文件 ,如下所示:

各损失函数作用说明:
定位损失box_loss:预测框与标定框之间的误差(GIoU),越小定位得越准;
分类损失cls_loss:计算锚框与对应的标定分类是否正确,越小分类得越准;
动态特征损失(dfl_loss):DFLLoss是一种用于回归预测框与目标框之间距离的损失函数。在计算损失时,目标框需要缩放到特征图尺度,即除以相应的stride,并与预测的边界框计算Ciou Loss,同时与预测的anchors中心点到各边的距离计算回归DFLLoss。
本文训练结果如下:

我们通常用PR曲线来体现精确率和召回率的关系,本文训练结果的PR曲线如下。mAP表示Precision和Recall作为两轴作图后围成的面积,m表示平均,@后面的数表示判定iou为正负样本的阈值。mAP@.5:表示阈值大于0.5的平均mAP,可以看到本文模型目标检测的mAP@0.5值为0.929,对于小目标检测来说,检测结果还是十分错的。

4. 使用模型进行推理
模型训练完成后,我们可以得到一个最佳的训练结果模型best.pt文件,在runs/train/weights目录下。我们可以使用该文件进行后续的推理检测。
图片检测代码如下:
python
#coding:utf-8
from ultralytics import YOLO
import cv2
# 所需加载的模型目录
path = 'models/best.pt'
# 需要检测的图片地址
img_path = "TestFiles/00288_jpg.rf.1b2bf11b46ae9f7046a671618fb08c03.jpg"
# 加载预训练模型
# conf 0.25 置信度阈值
# iou 0.7 iou阈值
model = YOLO(path, task='obb')
# 检测图片
results = model(img_path)
res = results[0].plot(labels=False)
# res = cv2.resize(res,dsize=None,fx=0.5,fy=0.5,interpolation=cv2.INTER_LINEAR)
cv2.imshow("Result", res)
# cv2.imwrite("result.jpg", res)
cv2.waitKey(0)
执行上述代码后,会将执行的结果直接标注在图片上,结果如下:

更多检测结果示例如下:




四、可视化系统制作
基于上述训练出的目标检测模型,为了给此检测系统提供一个用户友好的操作平台,使用户能够便捷、高效地进行检测任务。博主基于Pyqt5开发了一个可视化的系统界面,通过图形用户界面(GUI),用户可以轻松地在图片、视频和摄像头实时检测之间切换,无需掌握复杂的编程技能即可操作系统。【系统详细展示见第一部分内容】
Pyqt5详细介绍
关于Pyqt5的详细介绍可以参考之前的博客文章:《Python中的Pyqt5详细介绍:基本机构、部件、布局管理、信号与槽、跨平台》,地址:
系统制作
博主基于Pyqt5框架开发了此款无人机视角车辆检测系统,即文中第一部分的演示内容 ,能够很好的支持图片、视频及摄像头进行检测,同时支持检测结果的保存。
通过图形用户界面(GUI),用户可以轻松地在图片、视频和摄像头实时检测之间切换,无需掌握复杂的编程技能即可操作系统。这不仅提升了系统的可用性和用户体验,还使得检测过程更加直观透明,便于结果的实时观察和分析。此外,GUI还可以集成其他功能,如检测结果的保存与导出、检测参数的调整,从而为用户提供一个全面、综合的检测工作环境,促进智能检测技术的广泛应用。

关于该系统涉及到的完整源码、UI界面代码、数据集、训练代码、训练好的模型、测试图片视频等相关文件,均已打包上传,感兴趣的小伙伴可以通过下载链接自行获取。
【获取方式】

本文涉及到的完整全部程序文件:包括python源码、数据集、训练好的结果文件、训练代码、UI源码、测试图片视频 等(见下图),获取方式见文末:

注意:该代码基于Python3.9开发,运行界面的主程序为
MainProgram.py,其他测试脚本说明见上图。为确保程序顺利运行,请按照程序运行说明文档txt配置软件运行所需环境。