视频演示
基于深度学习的路面裂缝检测系统
目录
[1. 前言](#1. 前言)
[2. 项目演示](#2. 项目演示)
[2.1 用户登录界面](#2.1 用户登录界面)
[2.2 新用户注册](#2.2 新用户注册)
[2.3 主界面布局](#2.3 主界面布局)
[2.4 个人信息管理](#2.4 个人信息管理)
[2.5 多模态检测展示](#2.5 多模态检测展示)
[2.6 检测结果保存](#2.6 检测结果保存)
[2.7 多模型切换](#2.7 多模型切换)
[4. 技术栈](#4. 技术栈)
[5. YOLO模型对比与识别效果解析](#5. YOLO模型对比与识别效果解析)
[5.1 YOLOv5/YOLOv8/YOLOv11/YOLOv12模型对比](#5.1 YOLOv5/YOLOv8/YOLOv11/YOLOv12模型对比)
[5.2 数据集分析](#5.2 数据集分析)
[5.3 训练结果](#5.3 训练结果)
[6. 源码获取方式](#6. 源码获取方式)
1. 前言
大家好,欢迎来到 Coding茶水间。
近年来,随着公路里程不断增长和城市基础设施规模持续扩大,路面养护与安全管理的重要性日益凸显。裂缝作为最常见的路面病害之一,若不能及时发现与修复,不仅会加速道路损坏,还可能引发交通安全隐患。然而在现实中,传统的路面巡检多依赖人工目测或简单仪器测量,效率低、主观性强,且难以应对大范围路网的高频检测需求;即便引入图像处理技术,也常因裂缝形态多变、背景复杂、光照不均等问题,导致检测精度与实时性难以兼得。此外,现有不少检测工具功能单一,仅支持静态图片分析,缺少视频流、实时摄像头、批量处理和结果可视化等一体化能力,限制了在实际工程中的应用推广。
针对这一现状,我们团队基于 YOLO 系列目标检测算法 ,研发了一套 路面裂缝检测系统,能够快速判断路面是否存在裂缝,并以直观的可视化方式标注位置与置信度。系统提供图形化操作界面,支持单张图片、视频文件、文件夹批量图片及实时摄像头检测,可在同一平台完成模型切换、置信度与交并比调节、检测耗时与目标统计查看、类别过滤、检测结果导出与语音播报等功能。同时,我们还配套实现了用户登录管理、脚本化调用以及模型训练流程,方便开发者根据不同场景定制与优化模型。
今天,我们将带大家全面认识这套系统的界面布局、核心功能与实际演示效果,看看它如何在多种场景下高效、稳定地完成路面裂缝的检测与分析任务。

2. 项目演示
2.1 用户登录界面
登录界面布局简洁清晰,左侧展示系统主题,用户需输入用户名、密码及验证码完成身份验证后登录系统。

2.2 新用户注册
注册时可自定义用户名与密码,支持上传个人头像;如未上传,系统将自动使用默认头像完成账号创建。

2.3 主界面布局
主界面采用三栏结构,左侧为功能操作区,中间用于展示检测画面,右侧呈现目标详细信息,布局合理,交互流畅。

2.4 个人信息管理
用户可在此模块中修改密码或更换头像,个人信息支持随时更新与保存。

2.5 多模态检测展示
系统支持图片、视频及摄像头实时画面的目标检测。识别结果将在画面中标注显示,并且带有语音播报提醒,并在下方列表中逐项列出。点击具体目标可查看其类别、置信度及位置坐标等详细信息。

2.6 检测结果保存
可以将检测后的图片、视频进行保存,生成新的图片和视频,新生成的图片和视频中会带有检测结果的标注信息,并且还可以将所有检测结果的数据信息保存到excel中进行,方便查看检测结果。


2.7 多模型切换
系统内置多种已训练模型,用户可根据实际需求灵活切换,以适应不同检测场景或对比识别效果。

3.模型训练核心代码
本脚本是YOLO模型批量训练工具,可自动修正数据集路径为绝对路径,从pretrained文件夹加载预训练模型,按设定参数(100轮/640尺寸/批次8)一键批量训练YOLOv5nu/v8n/v11n/v12n模型。
python
# -*- coding: utf-8 -*-
"""
该脚本用于执行YOLO模型的训练。
它会自动处理以下任务:
1. 动态修改数据集配置文件 (data.yaml),将相对路径更新为绝对路径,以确保训练时能正确找到数据。
2. 从 'pretrained' 文件夹加载指定的预训练模型。
3. 使用预设的参数(如epochs, imgsz, batch)启动训练过程。
要开始训练,只需直接运行此脚本。
"""
import os
import yaml
from pathlib import Path
from ultralytics import YOLO
def main():
"""
主训练函数。
该函数负责执行YOLO模型的训练流程,包括:
1. 配置预训练模型。
2. 动态修改数据集的YAML配置文件,确保路径为绝对路径。
3. 加载预训练模型。
4. 使用指定参数开始训练。
"""
# --- 1. 配置模型和路径 ---
# 要训练的模型列表
models_to_train = [
{'name': 'yolov5nu.pt', 'train_name': 'train_yolov5nu'},
{'name': 'yolov8n.pt', 'train_name': 'train_yolov8n'},
{'name': 'yolo11n.pt', 'train_name': 'train_yolo11n'},
{'name': 'yolo12n.pt', 'train_name': 'train_yolo12n'}
]
# 获取当前工作目录的绝对路径,以避免相对路径带来的问题
current_dir = os.path.abspath(os.getcwd())
# --- 2. 动态配置数据集YAML文件 ---
# 构建数据集yaml文件的绝对路径
data_yaml_path = os.path.join(current_dir, 'train_data', 'data.yaml')
# 读取原始yaml文件内容
with open(data_yaml_path, 'r', encoding='utf-8') as f:
data_config = yaml.safe_load(f)
# 将yaml文件中的 'path' 字段修改为数据集目录的绝对路径
# 这是为了确保ultralytics库能正确定位到训练、验证和测试集
data_config['path'] = os.path.join(current_dir, 'train_data')
# 将修改后的配置写回yaml文件
with open(data_yaml_path, 'w', encoding='utf-8') as f:
yaml.dump(data_config, f, default_flow_style=False, allow_unicode=True)
# --- 3. 循环训练每个模型 ---
for model_info in models_to_train:
model_name = model_info['name']
train_name = model_info['train_name']
print(f"\n{'='*60}")
print(f"开始训练模型: {model_name}")
print(f"训练名称: {train_name}")
print(f"{'='*60}")
# 构建预训练模型的完整路径
pretrained_model_path = os.path.join(current_dir, 'pretrained', model_name)
if not os.path.exists(pretrained_model_path):
print(f"警告: 预训练模型文件不存在: {pretrained_model_path}")
print(f"跳过模型 {model_name} 的训练")
continue
try:
# 加载指定的预训练模型
model = YOLO(pretrained_model_path)
# --- 4. 开始训练 ---
print(f"开始训练 {model_name}...")
# 调用train方法开始训练
model.train(
data=data_yaml_path, # 数据集配置文件
epochs=100, # 训练轮次
imgsz=640, # 输入图像尺寸
batch=8, # 每批次的图像数量
name=train_name, # 模型名称
)
print(f"{model_name} 训练完成!")
except Exception as e:
print(f"训练 {model_name} 时出现错误: {str(e)}")
print(f"跳过模型 {model_name},继续训练下一个模型")
continue
print(f"\n{'='*60}")
print("所有模型训练完成!")
print(f"{'='*60}")
if __name__ == "__main__":
# 当该脚本被直接执行时,调用main函数
main()
4. 技术栈
-
语言:Python 3.10
-
前端界面:PyQt5
-
数据库:SQLite(存储用户信息)
-
模型:YOLOv5、YOLOv8、YOLOv11、YOLOv12
5. YOLO模型对比与识别效果解析
5.1 YOLOv5/YOLOv8/YOLOv11/YOLOv12模型对比
基于Ultralytics官方COCO数据集训练结果:
| 模型 | 尺寸(像素) | mAPval 50-95 | 速度(CPU ONNX/毫秒) | 参数(M) | FLOPs(B) |
|---|---|---|---|---|---|
| YOLO12n | 640 | 40.6 | - | 2.6 | 6.5 |
| YOLO11n | 640 | 39.5 | 56.1 ± 0.8 | 2.6 | 6.5 |
| YOLOv8n | 640 | 37.3 | 80.4 | 3.2 | 8.7 |
| YOLOv5nu | 640 | 34.3 | 73.6 | 2.6 | 7.7 |
关键结论:
-
精度最高:YOLO12n(mAP 40.6%),显著领先其他模型(较YOLOv5nu高约6.3个百分点);
-
速度最优:YOLO11n(CPU推理56.1ms),比YOLOv8n快42%,适合实时轻量部署;
-
效率均衡:YOLO12n/YOLO11n/YOLOv8n/YOLOv5nu参数量均为2.6M,FLOPs较低(YOLO12n/11n仅6.5B);YOLOv8n参数量(3.2M)与计算量(8.7B)最高,但精度优势不明显。
综合推荐:
-
追求高精度:优先选YOLO12n(精度与效率兼顾);
-
需高速低耗:选YOLO11n(速度最快且精度接近YOLO12n);
-
YOLOv5nu/YOLOv8n因性能劣势,无特殊需求时不建议首选。
5.2 数据集分析

数据集中训练集和验证集一共3900张图片,数据集目标类别1种:裂缝,数据集配置代码如下:
XML
path: crack-seg # dataset root dir
train: images/train # train images (relative to 'path') 3717 images
val: images/val # val images (relative to 'path') 112 images
test: images/test # test images (relative to 'path') 200 images
# Classes
names:
0: crack


上面的图片就是部分样本集训练中经过数据增强后的效果标注。
5.3 训练结果

混淆矩阵显示中识别精准度显示是一条对角线,方块颜色越深代表对应的类别识别的精准度越高。

F1指数(F1 Score)是统计学和机器学习中用于评估分类模型性能的核心指标,综合了模型的精确率(Precision)和召回率(Recall),通过调和平均数平衡两者的表现。
当置信度为0.558时,所有类别的综合F1值达到了0.78(蓝色曲线)。

mAP@0.5:是目标检测任务中常用的评估指标,表示在交并比(IoU)阈值为0.5时计算的平均精度均值(mAP)。其核心含义是:只有当预测框与真实框的重叠面积(IoU)≥50%时,才认为检测结果正确。
图中可以看到综合mAP@0.5达到了0.831(83.1%),准确率非常高。