基于深度学习的面部口罩检测系统演示与介绍(YOLOv12/v11/v8/v5模型+Pyqt5界面+训练代码+数据集)

视频演示

基于深度学习的面部口罩检测系统演示与介绍

1. 前言

在公共卫生安全与疫情防控常态化背景下,面部口罩佩戴检测作为阻断呼吸道传染病传播的关键技术手段,其准确性与实时性直接影响防控效能。传统口罩检测方法多依赖人工巡查或简单传感器监测,前者存在效率低、覆盖范围有限、易受主观判断影响等问题,后者则难以精准识别面部特征与口罩佩戴状态,尤其在复杂场景(如多人聚集、光照变化、部分遮挡)下易出现漏检或误判。随着深度学习技术的发展,基于目标检测的YOLO系列算法因其高效的实时检测能力与较高的精度,为口罩佩戴检测提供了可行的技术路径。然而,现有基于YOLO的口罩检测系统仍存在应用局限:部分系统操作依赖代码交互,非专业用户难以快速部署;功能模块分散,检测、模型管理、用户权限控制等环节缺乏一体化设计;参数调节(如置信度、交并比)的交互界面不直观,难以适配不同场景需求;此外,模型训练与推理流程分离,用户难以基于自有数据优化模型性能,限制了系统的实用性与扩展性。

针对上述问题,本研究设计并实现了一套基于YOLO算法的面部口罩检测系统,旨在构建集检测、管理、训练于一体的轻量化解决方案。该系统集成YOLO5、YOLO8、YOLO11、YOLO12多版本模型,支持图片、视频、文件夹批量及摄像头实时流等多源输入检测;通过可视化交互界面实现置信度、交并比参数的动态调节,提供检测目标的类别统计、数量分析及详细信息(置信度、坐标位置)追溯功能;同时集成用户登录注册、个人中心管理及脚本化批量检测模块,并内置模型训练功能,支持用户基于自定义数据集(含6019张训练集与582张验证集)微调模型,形成"检测-管理-训练"闭环。系统通过模块化设计与友好的交互逻辑,降低了YOLO算法落地的技术门槛,提升了口罩佩戴检测在实际场景(如公共场所监控、社区管理等)中的适用性与可扩展性。

本文将从系统架构、功能实现、实验验证等方面展开阐述,重点分析多模型切换机制、实时检测优化策略及用户交互设计,为同类视觉检测系统的开发提供参考,助力口罩佩戴检测技术从理论研究向实际应用的转化。

2. 项目演示

2.1 用户登录界面

登录界面布局简洁清晰,左侧展示系统主题,用户需输入用户名、密码及验证码完成身份验证后登录系统。

2.2 新用户注册

注册时可自定义用户名与密码,支持上传个人头像;如未上传,系统将自动使用默认头像完成账号创建。

2.3 主界面布局

主界面采用三栏结构,左侧为功能操作区,中间用于展示检测画面,右侧呈现目标详细信息,布局合理,交互流畅。

2.4 个人信息管理

用户可在此模块中修改密码或更换头像,个人信息支持随时更新与保存。

2.5 多模态检测展示

系统支持图片、视频及摄像头实时画面的目标检测。识别结果将在画面中标注显示,并在下方列表中逐项列出。点击具体目标可查看其类别、置信度及位置坐标等详细信息。

2.6 多模型切换

系统内置多种已训练模型,用户可根据实际需求灵活切换,以适应不同检测场景或对比识别效果。

3.模型训练核心代码

本脚本是YOLO模型批量训练工具,可自动修正数据集路径为绝对路径,从pretrained文件夹加载预训练模型,按设定参数(100轮/640尺寸/批次8)一键批量训练YOLOv5nu/v8n/v11n/v12n模型。

复制代码
# -*- coding: utf-8 -*-
"""
该脚本用于执行YOLO模型的训练。

它会自动处理以下任务:
1. 动态修改数据集配置文件 (data.yaml),将相对路径更新为绝对路径,以确保训练时能正确找到数据。
2. 从 'pretrained' 文件夹加载指定的预训练模型。
3. 使用预设的参数(如epochs, imgsz, batch)启动训练过程。

要开始训练,只需直接运行此脚本。
"""
import os
import yaml
from pathlib import Path
from ultralytics import YOLO

def main():
    """
    主训练函数。
    
    该函数负责执行YOLO模型的训练流程,包括:
    1. 配置预训练模型。
    2. 动态修改数据集的YAML配置文件,确保路径为绝对路径。
    3. 加载预训练模型。
    4. 使用指定参数开始训练。
    """
    # --- 1. 配置模型和路径 ---
    
    # 要训练的模型列表
    models_to_train = [
        {'name': 'yolov5nu.pt', 'train_name': 'train_yolov5nu'},
        {'name': 'yolov8n.pt', 'train_name': 'train_yolov8n'},
        {'name': 'yolo11n.pt', 'train_name': 'train_yolo11n'},
        {'name': 'yolo12n.pt', 'train_name': 'train_yolo12n'}
    ]
    
    # 获取当前工作目录的绝对路径,以避免相对路径带来的问题
    current_dir = os.path.abspath(os.getcwd())
    
    # --- 2. 动态配置数据集YAML文件 ---
    
    # 构建数据集yaml文件的绝对路径
    data_yaml_path = os.path.join(current_dir, 'train_data', 'data.yaml')
    
    # 读取原始yaml文件内容
    with open(data_yaml_path, 'r', encoding='utf-8') as f:
        data_config = yaml.safe_load(f)
    
    # 将yaml文件中的 'path' 字段修改为数据集目录的绝对路径
    # 这是为了确保ultralytics库能正确定位到训练、验证和测试集
    data_config['path'] = os.path.join(current_dir, 'train_data')
    
    # 将修改后的配置写回yaml文件
    with open(data_yaml_path, 'w', encoding='utf-8') as f:
        yaml.dump(data_config, f, default_flow_style=False, allow_unicode=True)
    
    # --- 3. 循环训练每个模型 ---
    
    for model_info in models_to_train:
        model_name = model_info['name']
        train_name = model_info['train_name']
        
        print(f"\n{'='*60}")
        print(f"开始训练模型: {model_name}")
        print(f"训练名称: {train_name}")
        print(f"{'='*60}")
        
        # 构建预训练模型的完整路径
        pretrained_model_path = os.path.join(current_dir, 'pretrained', model_name)
        if not os.path.exists(pretrained_model_path):
            print(f"警告: 预训练模型文件不存在: {pretrained_model_path}")
            print(f"跳过模型 {model_name} 的训练")
            continue
        
        try:
            # 加载指定的预训练模型
            model = YOLO(pretrained_model_path)
            
            # --- 4. 开始训练 ---
            
            print(f"开始训练 {model_name}...")
            # 调用train方法开始训练
            model.train(
                data=data_yaml_path,  # 数据集配置文件
                epochs=100,           # 训练轮次
                imgsz=640,            # 输入图像尺寸
                batch=8,             # 每批次的图像数量
                name=train_name,      # 模型名称
            )
            
            print(f"{model_name} 训练完成!")
            
        except Exception as e:
            print(f"训练 {model_name} 时出现错误: {str(e)}")
            print(f"跳过模型 {model_name},继续训练下一个模型")
            continue
    
    print(f"\n{'='*60}")
    print("所有模型训练完成!")
    print(f"{'='*60}")

if __name__ == "__main__":
    # 当该脚本被直接执行时,调用main函数
    main()

4. 技术栈

  • 语言:Python 3.10

  • 前端界面:PyQt5

  • 数据库:SQLite(存储用户信息)

  • 模型:YOLOv5、YOLOv8、YOLOv11、YOLOv12

5. YOLO模型对比与识别效果解析

5.1 YOLOv5/YOLOv8/YOLOv11/YOLOv12模型对比

基于Ultralytics官方COCO数据集训练结果:

模型 尺寸(像素) mAPval 50-95 速度(CPU ONNX/毫秒) 参数(M) FLOPs(B)
YOLO12n 640 40.6 - 2.6 6.5
YOLO11n 640 39.5 56.1 ± 0.8 2.6 6.5
YOLOv8n 640 37.3 80.4 3.2 8.7
YOLOv5nu 640 34.3 73.6 2.6 7.7

关键结论

  1. 精度最高:YOLO12n(mAP 40.6%),显著领先其他模型(较YOLOv5nu高约6.3个百分点);

  2. 速度最优:YOLO11n(CPU推理56.1ms),比YOLOv8n快42%,适合实时轻量部署;

  3. 效率均衡:YOLO12n/YOLO11n/YOLOv8n/YOLOv5nu参数量均为2.6M,FLOPs较低(YOLO12n/11n仅6.5B);YOLOv8n参数量(3.2M)与计算量(8.7B)最高,但精度优势不明显。

综合推荐

  • 追求高精度:优先选YOLO12n(精度与效率兼顾);

  • 需高速低耗:选YOLO11n(速度最快且精度接近YOLO12n);

  • YOLOv5nu/YOLOv8n因性能劣势,无特殊需求时不建议首选。

5.2 数据集分析

数据集中训练集和验证集一共大概6500多张,数据集目标类别两类:戴口罩,没带口罩。数据集配置代码如下:

复制代码
names:
- '-'
- Mask Wearing - v6 roboflow train v3
nc: 2
path: D:\project\python\01Finished\yolo_Mask_Detection\train_data
test: ../test/images
train: ../train/images
val: ../valid/images

上面的图片就是部分样本集训练中经过数据增强后的效果标注。

5.3 训练结果

混淆矩阵显示中识别精准度是 -(没戴口罩):91%,Mask Wearing - v6 roboflow train v3(戴口罩):93%,识别精准度非常高。

F1指数(F1 Score)是统计学和机器学习中用于评估分类模型性能的核心指标,综合了模型的精确率(Precision)和召回率(Recall),通过调和平均数平衡两者的表现。

当置信度为0.568时,所有类别的综合F1值达到了0.93(蓝色曲线)。

mAP@0.5:是目标检测任务中常用的评估指标,表示在交并比(IoU)阈值为0.5时计算的平均精度均值(mAP)。其核心含义是:只有当预测框与真实框的重叠面积(IoU)≥50%时,才认为检测结果正确。

图中可以看到综合mAP@0.5达到了0.947(94.7%),准确率非常高。

6. 源码获取方式

源码获取方式:https://www.bilibili.com/video/BV1owCpBaEvs

相关推荐
Mintopia21 分钟前
OpenClaw 对软件行业产生的影响
人工智能
陈广亮1 小时前
构建具有长期记忆的 AI Agent:从设计模式到生产实践
人工智能
会写代码的柯基犬1 小时前
DeepSeek vs Kimi vs Qwen —— AI 生成俄罗斯方块代码效果横评
人工智能·llm
Mintopia2 小时前
OpenClaw 是什么?为什么节后热度如此之高?
人工智能
爱可生开源社区2 小时前
DBA 的未来?八位行业先锋的年度圆桌讨论
人工智能·dba
叁两4 小时前
用opencode打造全自动公众号写作流水线,AI 代笔太香了!
前端·人工智能·agent
前端付豪5 小时前
LangChain记忆:通过Memory记住上次的对话细节
人工智能·python·langchain
strayCat232555 小时前
Clawdbot 源码解读 7: 扩展机制
人工智能·开源
程序员打怪兽5 小时前
详解Visual Transformer (ViT)网络模型
深度学习