本文研发的改进YOLOv11城市车辆和行人目标检测系统,是一款面向复杂城市交通场景、融合深度学习与GUI可视化技术的智能感知系统,聚焦车辆、行人两类核心交通目标,攻克传统检测方法精度不足、实时性受限、场景适应性弱等痛点,兼顾检测精度、推理效率与人机交互体验,可广泛应用于交通监控、流量统计、安全预警、智慧城市治理等场景,兼具理论创新性与工程实用性。系统以优化后的YOLO-CMA模型为核心引擎,采用分层模块化架构设计,涵盖数据采集、预处理、核心算法、业务功能、应用部署五大层级,实现从图像/视频输入到目标标注、数据统计、结果展示的全流程自动化,既满足实验室科研验证需求,也适配边缘设备部署与实际工程落地。
系统核心算法依托YOLOv11模型深度改进而来,针对城市交通人车混行、光照突变、目标密集遮挡、小目标远距离检测等难题,进行多项定向优化。在骨干网络部分,引入A2C2f_LEGM轻量级全局增强模块,强化模型对全局特征的感知能力,提升小尺寸行人、远距离车辆的特征提取效果,有效缓解漏检问题;颈部网络摒弃传统Concat拼接方式,替换为MFM多尺度特征调制模块,实现高低层级特征的动态加权聚合,优化多尺度目标的特征表达,增强模型对不同车型、不同姿态行人的适配性;检测头前端嵌入CGAFusion通道与空间引导注意力融合模块,细化像素级特征区分度,抑制复杂背景干扰,降低遮挡场景下的误检率,最终构建出轻量化、高精度、强鲁棒性的YOLO-CMA检测模型。该模型在保证实时推理的前提下,mAP@50指标稳定在0.7左右,相较原生YOLOv11检测精度显著提升,且可兼容CPU、GPU及嵌入式边缘设备,兼顾精度与效率双重需求。
系统整体采用PyTorch深度学习框架搭建算法环境,搭配PyQt6开发可视化GUI界面,整体设计遵循"功能清晰、交互便捷、视觉专业"的原则,采用深色科技风UI设计,以深蓝与渐变蓝为核心色调,契合智能交通系统的技术定位。界面顶部设置标签页导航栏,集成图片检测、视频检测、摄像头实时检测、关于系统四大功能模块,模块切换流畅,操作逻辑浅显易懂,大幅降低用户学习成本。其中,图片检测模块支持本地图片上传、一键检测、结果标注与保存,实时展示目标类别、置信度及数量统计;视频检测模块可加载本地MP4格式视频,实现逐帧检测与动态目标追踪,支持检测过程暂停与终止;摄像头实时检测模块可调用本地摄像设备,获取实时视频流并完成全天候在线检测,同步展示检测帧率与目标数量。界面中间区域为可视化展示面板,以虚线边框突出检测区域,清晰呈现带目标框、类别标签的检测效果图;底部设置数据统计栏,实时汇总行人、汽车、公交车等各类目标数量,为交通流量分析提供直观数据支撑。
在工程适配性方面,系统具备良好的兼容性与可拓展性,软硬件部署门槛低。实验环境依托NVIDIA RTX 3080 Ti GPU服务器完成模型训练,推理阶段可适配普通PC、嵌入式开发板等低算力设备,无需专用高性能硬件。系统采用标准化接口设计,可对接交通监控平台、车载感知设备、物联网终端,支持二次开发与功能拓展,后续可新增违章识别、轨迹追踪、拥堵预警等高级功能。同时,系统通过经济与技术可行性验证,研发成本低廉、运维便捷,无需高昂版权费用与人力投入,既能满足高校毕业设计科研展示,也可落地于城市路口、园区、商圈等实际交通场景,实现自动化交通管控与安全监测,为智能交通建设、智慧城市发展提供高效可靠的感知技术支撑,充分展现深度学习在计算机视觉与交通工程交叉领域的应用价值。