文章目录
- 一.前言
- 二.核心技术&知识
-
- 1.PyQt5
- 2.YOLOv8
- 3.DeepSeek
- 4.Sqlite3
- 5.多线程
- 6.布匹缺陷
- 7.布匹缺陷检测的意义
-
- [1. 纺织厂的自动化质量检测](#1. 纺织厂的自动化质量检测)
- [2. 服装行业的生产质量控制](#2. 服装行业的生产质量控制)
- [3. 布料商和批发商的进货与验货](#3. 布料商和批发商的进货与验货)
- [4. 智能纺织检测服务](#4. 智能纺织检测服务)
- [5. 在线布匹质量评估平台](#5. 在线布匹质量评估平台)
- 三.核心功能
- 四.数据集
- 五.关于项目
- 六.总结
本系统功能强大!支持对图片、视频、视频流、摄像头中的水印、沾污、漏印、破洞、织疵、缝头、缝头印、网折、色差、花毛、虫粘、蜡斑、褶子、错花、其他情况进行检测,支持多种数据数据源输入并且接入了AI实现了对当前分析结果的评估,欢迎了解!
@项目名称:基于PyQt+YOLO+DeepSeek的布匹缺陷检测系统
@仓库名称:yolov8-vehicle-type-detect
@作者:懷淰メ
@主页地址:https://blog.csdn.net/a1397852386
@定制:A1397852386
@开发日期:2026年4月

一.前言
布匹缺陷检测系统的开发背景与意义源于纺织行业对质量控制的不断追求。在传统的布匹生产过程中,质量检测依赖人工操作,存在效率低、准确性差以及人为疲劳等问题,这对生产效率和产品质量造成了很大的影响。随着工业化和智能化的推进,尤其是计算机视觉技术和深度学习的飞速发展,基于自动化的缺陷检测技术逐渐成为行业的需求。传统的人工检测不仅费时费力,而且容易受到人为主观因素的干扰,导致无法及时发现布匹上的各种缺陷,如水印、沾污、破洞、织疵、缝头印等。而且,随着全球纺织行业竞争的日益激烈,产品质量的提升和生产效率的优化变得尤为重要。
基于PyQt、YOLO和DeepSeek的布匹缺陷检测系统结合了前沿的计算机视觉技术与深度学习算法,能够在不依赖人工干预的情况下自动检测并分类布匹上的各种缺陷。PyQt作为图形界面开发框架,提供了一个直观、友好的操作界面,使得用户可以方便地进行数据上传、检测设置、结果查看等操作;YOLO(You Only Look Once)是一个实时物体检测算法,能够快速准确地识别和定位布匹上的不同缺陷,如破洞、色差、花毛等;DeepSeek则进一步通过深度学习模型对图像中的细节进行分析和学习,进一步提高了缺陷识别的准确性和鲁棒性。该系统不仅能够检测布匹表面常见的缺陷,还可以识别一些难度较大的问题,如褶子、错花、虫粘等。
该项目的意义不仅在于提高布匹检测的自动化程度,还能大幅提升生产效率和产品质量,减少人工成本。通过使用深度学习和计算机视觉的先进技术,布匹缺陷检测系统可以在短时间内完成大量布匹的质量检查,确保产品符合高标准的质量要求。对于制造商来说,这意味着可以通过精确的缺陷检测,减少不合格品的流入市场,提升企业的品牌信誉度;而对于消费者来说,最终产品的质量将得到保障,从而满足日益增长的市场需求和消费要求。
二.核心技术&知识
在这章我将要介绍本系统的核心技术。
1.PyQt5
PyQt5 是一套用于创建跨平台桌面应用程序的 Python GUI 工具包,它是 Qt 应用框架的 Python 绑定。通过 PyQt5,开发者可以使用 Python 编写具有现代图形界面的应用程序,支持丰富的控件、信号与槽机制、窗口管理、事件处理等功能。它兼容主流操作系统(如 Windows、macOS 和 Linux),适用于开发各种规模的桌面软件,常与 Qt Designer 配合使用以加快开发效率。
2.YOLOv8
YOLOv8(You Only Look Once version 8)是由 Ultralytics 推出的最新一代实时目标检测模型,属于 YOLO 系列的改进版本。相比前代模型,YOLOv8 在精度、速度和灵活性上都有显著提升,支持目标检测、图像分割、姿态估计等多任务处理。它采用了更加高效的网络结构和训练策略,并提供开箱即用的 Python 接口和命令行工具,适用于边缘设备和云端部署,广泛应用于安防监控、自动驾驶、工业检测等场景。
3.DeepSeek
DeepSeek是由深度求索公司开发的AI大模型助手,作为纯文本模型,我擅长自然语言处理、文档分析和智能对话。当与YOLO(You Only Look Once)实时目标检测系统结合时,可以形成强大的多模态应用架构------YOLO系统负责实时视觉识别和目标检测,快速准确地识别图像或视频流中的物体;而我则对YOLO检测到的结果进行深度语义分析和上下文理解,提供物体属性的详细解读、场景描述、行为分析以及决策建议。这种结合使得计算机视觉的"看到"与AI的"理解"完美融合,可广泛应用于智能监控、自动驾驶、工业质检等领域,实现从视觉感知到智能决策的完整闭环。
4.Sqlite3
本系统使用Sqlite3进行数据的存储与管理。
SQLite3是一种轻量级的嵌入式关系型数据库管理系统,广泛应用于桌面软件、移动应用以及各类嵌入式设备中。与传统的客户端-服务器数据库(如MySQL、PostgreSQL)不同,SQLite3无需独立的数据库服务器进程,整个数据库以单一文件形式存储在本地,应用程序可直接通过库文件进行读写操作。这种架构使其具有部署简单、占用资源少、跨平台性强等显著优势。SQLite3遵循ACID事务特性,能够保证数据的一致性与可靠性,同时支持标准SQL语法,包括表的创建、查询、索引、触发器等常见功能,能够满足中小规模数据管理需求。在性能方面,SQLite3在读操作上表现高效,并通过锁机制实现多线程环境下的基本并发控制。由于其零配置特性和稳定性,SQLite3被广泛集成于Android、iOS等操作系统中,也常用于缓存数据存储、本地日志管理以及离线数据处理等场景。总体而言,SQLite3以其简洁高效的设计理念,在轻量级数据管理领域占据了重要地位。
5.多线程
QThread 是 PyQt5 提供的线程类,主要用于在图形界面程序中安全、高效地执行耗时任务,从而避免主线程阻塞导致界面卡顿或无响应的问题。在典型的GUI应用中,界面渲染与用户交互通常运行在主线程,一旦在该线程中直接执行诸如数据处理、深度学习模型推理、视频流分析或文件读写等耗时操作,就容易造成界面冻结,严重影响用户体验。QThread 的引入正是为了解决这一问题。
通过 QThread,开发者可以将这些计算密集型或IO密集型任务封装到子线程中独立运行,使主线程专注于界面更新与交互响应。同时,QThread 提供了基于信号与槽机制的线程间通信方式,能够在不同线程之间安全地传递数据与状态信息。例如,子线程在完成检测或处理任务后,可以通过发送信号将结果传递给主线程,由主线程负责更新界面控件,从而避免直接跨线程操作UI带来的风险。
此外,QThread 还支持线程的生命周期管理,包括启动、暂停、退出以及资源回收等,使得多线程程序结构更加清晰可控。合理使用 QThread 不仅可以显著提升应用程序的响应速度和运行效率,还能增强系统的稳定性与扩展能力。在涉及实时数据处理、视频监控或智能分析等复杂桌面应用开发场景中,QThread 已成为不可或缺的重要工具。
6.布匹缺陷
布匹是由纤维经过纺纱、织造或编织等工艺制成的材料,广泛应用于服装、家纺及工业领域。根据原料不同,可分为天然纤维布(如棉、麻、丝、毛)和化学纤维布(如涤纶、锦纶等),不同种类在手感、透气性、耐用性等方面各有特点。布匹质量的好坏直接影响成品的外观和使用性能。
在生产过程中,布匹可能出现各种缺陷,常见的包括断经断纬、色差、油污、疵点、布面起毛或起球等。这些问题可能源于原料质量不稳定、设备运转异常或工艺控制不当。例如,纱线张力不均会导致布面条纹,而染整过程控制不佳则可能产生色花现象。布匹缺陷不仅影响美观,还可能降低其强度和使用寿命,因此在生产和检验环节中需要严格把控质量。

7.布匹缺陷检测的意义
1. 纺织厂的自动化质量检测
在传统的纺织生产过程中,布匹质量的检测通常由人工完成。人工检测不仅耗时费力,而且存在一定的疏漏,尤其是在生产速度较快的流水线上。为了提高生产效率和减少人为误差,越来越多的纺织厂开始寻求自动化检测解决方案。基于PyQt、YOLO和DeepSeek的布匹缺陷检测系统正是这种需求的产物。
该系统可以在生产线上实时监控布匹的质量,通过安装高精度摄像头对布匹进行拍摄,然后利用YOLO算法快速识别和定位布匹上的各种缺陷,如水印、破洞、织疵、漏印等。DeepSeek则通过深度学习对图像进行分析,从细节上发现一些微小的缺陷,例如色差、褶子、蜡斑等,及时标记并生成报告。操作员只需在PyQt构建的界面上查看检测结果,极大减少了人工干预,提升了生产线的工作效率和产品质量,保证了每批布匹都能符合严格的质量标准。此类系统不仅提高了纺织生产的自动化水平,还在全球竞争中提升了产品的竞争力。
2. 服装行业的生产质量控制
服装制造商对布匹的质量要求非常高,任何轻微的瑕疵都可能导致成品的品质下降,甚至影响到品牌的声誉。因此,服装企业在原材料的采购和生产环节中都需要对布匹进行严格的质量检测。传统的人工检测方法往往无法满足大规模生产对效率和准确性的要求,且容易因人为疏忽而漏检某些细小缺陷。
基于PyQt、YOLO和DeepSeek的布匹缺陷检测系统可以帮助服装制造商解决这一问题。系统能够实时扫描布匹表面,识别各种类型的缺陷,如缝头印、网折、错花、虫粘等,并自动生成报告供质检人员参考。在服装制造过程中,这一系统不仅可以用于布匹的初检,还可以作为生产线上的实时质量监控工具,确保生产过程中每一米布匹都符合质量标准。同时,系统也可以根据具体需求对不同类型的布料进行专门的缺陷检测设置,提供更加精准的检测结果,从而保障成品的质量,减少废品率,提高生产效益。
3. 布料商和批发商的进货与验货
对于布料商和批发商来说,采购高质量的布匹是其核心竞争力之一。布匹的质量直接影响到服装厂或其他下游客户的生产效率和成品质量,因此,进货和验货环节的质量把控至关重要。传统的人工验货存在许多局限性,不仅检测效率低,而且容易漏检一些细微的缺陷,尤其是对于布匹大批量的验收工作,往往不易做到全面细致。
基于PyQt、YOLO和DeepSeek的布匹缺陷检测系统为布料商和批发商提供了一个高效、准确的自动化解决方案。系统能够自动扫描布匹表面,识别各类缺陷,包括常见的水印、沾污、褶子以及较难检测的花毛、错花等,通过YOLO算法进行高效的缺陷识别,再通过DeepSeek深度学习模块对缺陷进行细化分析。通过这种自动化的方式,布料商可以大大提高验货效率,减少人工干预,确保每批布料在出货前都经过严格的质量把控,从而增强自身市场竞争力,降低因质量问题带来的退换货风险。
4. 智能纺织检测服务
随着人工智能技术的不断发展,许多纺织品检测服务公司开始引入智能化的布匹检测系统,以提升检测准确性和服务效率。通过结合深度学习和计算机视觉的优势,基于PyQt、YOLO和DeepSeek的布匹缺陷检测系统为这些检测服务提供了强有力的技术支持。尤其是对于需要高精度和高效率的检测服务行业,该系统具备了极大的应用潜力。
在智能纺织检测服务中,客户通常会送检大量的布匹,尤其是在布匹质量不一、缺陷类型繁多的情况下,人工检测显得尤为繁琐。基于YOLO算法和DeepSeek的系统可以快速、准确地识别各种缺陷,包括破洞、织疵、缝头等,同时通过图像增强和深度学习分析,对布匹的复杂缺陷进行深度挖掘。这一过程不仅减少了检测人员的劳动强度,还显著提高了检测结果的准确性和一致性。此外,系统生成的详细缺陷报告可以帮助客户快速了解布匹的质量问题,从而做出相应的调整或决策,大大提升了检测服务的附加值。
5. 在线布匹质量评估平台
随着电商平台的发展,越来越多的布匹生产商和商家选择通过线上平台进行布匹的销售。在线布匹质量评估平台能够帮助消费者在购买前对布匹的质量进行有效评估,确保其满足需求。这种平台通常需要一种高效的、自动化的布匹质量评估工具,而基于PyQt、YOLO和DeepSeek的布匹缺陷检测系统正好满足了这一需求。
通过搭建在在线平台上的布匹缺陷检测系统,消费者可以通过上传布匹样本图像,自动检测出布匹上可能存在的各种缺陷,如水印、破洞、色差等。系统不仅能够自动标记缺陷的位置,还能根据缺陷的类型提供具体的评估结果,帮助消费者做出理性决策。对于商家而言,这种系统可以帮助他们优化产品展示,提升消费者信任度,同时减少因质量问题带来的退换货纠纷。此外,这一系统的应用还可以促进布匹供应链的透明化,提高整体市场效率。

三.核心功能
1.登录注册
1.登录
软件启动后首先进入登录页面,用户需要输入正确的用户名和密码,经过系统验证后方可使用本系统的正式功能。登录页面整体采用垂直布局,使信息层次清晰、结构简洁,同时在局部区域辅以水平布局,以提升界面的灵活性与可读性。整体设计风格遵循"简约而不简单"的原则,在保证视觉美观的同时,也兼顾操作的直观性与易用性。
在功能实现方面,登录模块的后端采用sqlite3文件型数据库来存储用户信息,包括用户名、密码及相关基础数据。每次用户发起登录请求时,系统都会通过查询数据库进行身份校验,确保输入信息的准确性与安全性,从而实现规范化、标准化的登录流程。
同时,我们设计了统一风格的登录与注册界面,用于展示系统与用户交互所需的全部组件。界面顶部以醒目的标题形式展示系统名称,增强整体识别度与专业性。通过合理布局输入框、按钮及提示信息,使用户在使用过程中能够快速理解操作步骤,从而提升整体使用体验。

2.注册
对于尚未拥有账号的用户,需要先完成注册操作后才能使用系统功能。整体注册流程设计得较为简洁直观,用户只需在登录界面点击"注册"按钮,即可快速跳转至注册窗口,无需复杂的页面切换或额外步骤。在注册界面中,用户需要填写自定义的用户名,并输入两次一致的密码以完成身份信息的确认。这种双重密码输入机制可以有效避免因输入错误而导致的登录失败问题,从而提升系统的可靠性与用户体验。
在用户成功完成注册后,系统还提供了一项便捷的优化设计:自动将刚刚注册的用户名和密码填充到登录界面中。用户无需再次手动输入信息,即可直接进行登录操作。这一设计在一定程度上简化了登录流程路径,减少了重复操作,提高了整体使用效率。同时,该功能也体现了系统在交互细节上的人性化考虑,使用户在首次使用时能够获得更加顺畅和友好的体验。

2.主界面
用户通过输入自己的用户名和密码登录到本系统后进入主界面,主界面内容十分丰富,我来一一介绍:首先软件整体是垂直布局,顶部是系统的标题,从左到右依次展示了系统的作者信息、系统名称、当前时间以及CPU内存占用情况,下方为水平布局,左侧是系统的导航区域,我们设计了windows风格支持展开与收缩的内容导航区域,右侧是内容核心区域,通过点击导航按钮切换展示内容,主界面主要展示了以日期为维度统计的数据、用户信息操作按钮、系统信息、系统环境信息以及实时CPU、内存可视化折线图

3.图像检测界面
1.检测结果展示
用户通过点击左侧导航栏按钮切换到图像检测界面,在此界面支持选择图像进行输入,用户选择完之后被选择的图像会展示在左侧并且展示图像绝对路径信息,用户可以通过点击右侧的"进行检测"按钮对输入的图像数据进行检测,系统会自动调用YOLOv8相关算法根据指定的参数对输入图像内容进行检测,最后将检测结果展示到右侧,这样用户可以通过比对左右图像的区别得到直观的检测结果,系统自动使用红色边框框选出目标区域并且使用红色文字展示出目标类别以及它的置信度,这些参数和展示效果都可以在设置页面进行详细设置。

2.导出检测结果
我们在界面中专门设置了检测结果展示区域,用于集中呈现系统输出的信息。该区域不仅包含检测目标数量的统计展示,还提供了结构清晰的详细检测结果表格。通过这种方式,用户可以直观地查看每一条检测数据,包括目标类别、置信度以及对应位置信息等内容,从而更全面地了解检测情况。整体布局兼顾信息密度与可读性,使数据展示既完整又不显杂乱。
此外,在检测任务完成之后,界面右侧的三个功能按钮会自动由不可用状态切换为可点击状态,避免用户在未生成结果前进行误操作。这三个按钮分别承担不同的功能,其中"导出结果"按钮允许用户将检测数据保存到本地。系统支持多种导出格式,包括Excel、CSV以及TXT,用户可以根据实际需求灵活选择合适的文件类型,以便后续分析或归档使用。以Excel格式为例,导出的文件通常采用表格结构,对应字段清晰排列,便于用户进一步查看与处理数据。

3.可视化展示
然后就是可视化展示,用户可以点击进行可视化按钮,查看对于本次检测的可视化效果,系统内置了四种可视化效果:分别是:目标位置热力图、目标面积占比、置信度分布直方图、检测能力柱状图,这些图标通过不同维度对当前数据进行了可视化展示,更便于用户理解,这里指的一体的是,支持可视化图表进行导出操作,用户可以点击紫色的导出按钮,对当前的可视化效果图表进行导出,生成一张本地的PNG图像文件。

4.AI(DeepSeek)智能分析
在每次检测任务完成并展示检测结果之后,系统为用户提供了一种便捷且智能的交互方式:用户只需点击界面右下角悬浮的机器人图标,即可触发对当前检测结果的深度AI分析功能。系统会自动将本次检测所得到的所有关键信息------包括检测到的目标类别、置信度分数、目标位置坐标、数量统计以及可能存在的异常或遮挡情况等------完整地作为输入传递给后端AI大模型。AI模型接收到这些数据后,会基于其强大的语义理解与逻辑推理能力,对本次检测结果进行多维度的智能评估。评估内容可以包括:检测结果的准确性与可靠性判断、识别结果中可能存在的误检或漏检风险提示、针对当前场景的优化建议、对异常情况的详细解释,甚至能够根据历史检测数据的模式给出趋势分析或预警信息。这一设计不仅使用户无需手动复制或整理检测数据就能获得即时的专业分析反馈,更重要的是,它实现了一种通用化的AI能力接入机制:检测模块与分析模块实现了解耦,任何检测结果都可以以统一格式传递给AI进行分析,而AI的具体分析逻辑可以根据需要灵活替换、升级或定制。这使得系统在未来可以轻松扩展更多智能功能,例如接入不同的大模型、增加多模态分析能力、实现检测策略的自适应调整等,极大地提升了整个系统的可扩展性与智能化水平。
这里是软件的另外一个核心:AI智能分析,我们的目标检测系统接入了DeepSeek大模型,支持对当前检测结果数据进行AI分析,AI会通过不同维度对当前检测结果进行多角度分析,最后生成检测结果分析报告,用户可以根据这个结果对系统进行调整,不断完善系统功能和目标检测准确度!
在AI分析结束后下方会展示一些按钮,用户可以方便地复制结果、导出文本内容、生成PDF报告、重新生成以及关闭,多重的操作方式给于用户了多种选择!

4.视频检测界面
1.视频文件检测
我们的系统支持视频内容中的球体检测,支持输入的视频类型包括:视频文件、视频流以及摄像头,通过识别视频画面的内容对内容中的目标球体进行检测,试试标注与展示,通过相关帧率控制保证了视频的流畅性,用户可以通过比对左右两侧的画面使用肉眼评估当前检测结果,我们的视频检测界面拥有图像检测界面相同的操作功能,这里不多赘述。

2.摄像头内容检测
用户点击"进行检测"按钮之后系统会自动调用摄像头,打开摄像头展示摄像头画面,实时检测目标画面中的球体,通过左右画面比对让用户看到检测结果,这里本人就不露脸啦~
5.模型指标评估
在这个页面中我们通过三个tab展示了模型训练结果评估,分别是:训练结果图、训练结果详情、整体评估,所有的训练结果文件(夹)以及相关作用可见下面图标:
| 文件/文件夹名 | 类型 | 作用说明 |
|---|---|---|
weights/ |
文件夹 | 存放训练得到的模型权重 |
├─ best.pt |
文件 | 在验证集上表现最好的模型(推荐用于推理/部署) |
├─ last.pt |
文件 | 最后一轮训练结束时的模型(包含最新状态) |
results.csv |
文件 | 每个 epoch 的训练与验证指标(loss、mAP、precision 等) |
results.png |
图片 | 训练过程中各类指标变化曲线(loss、mAP 等可视化) |
confusion_matrix.png |
图片 | 混淆矩阵,展示类别预测情况 |
confusion_matrix_normalized.png |
图片 | 归一化后的混淆矩阵 |
PR_curve.png |
图片 | Precision-Recall 曲线 |
P_curve.png |
图片 | Precision 曲线 |
R_curve.png |
图片 | Recall 曲线 |
F1_curve.png |
图片 | F1-score 曲线 |
labels.jpg |
图片 | 数据集中标签分布(类别统计) |
labels_correlogram.jpg |
图片 | 标签相关性图(用于分析数据分布) |
train_batch*.jpg |
图片 | 训练批次样本可视化(带标注框) |
val_batch*.jpg |
图片 | 验证批次样本可视化 |
args.yaml |
文件 | 本次训练的完整参数配置(超参数、路径等) |
hyp.yaml(部分版本) |
文件 | 超参数配置(学习率、增强策略等) |
opt.yaml(旧版本可能有) |
文件 | 训练选项记录(已逐渐被 args.yaml 替代) |
events.out.tfevents.* |
文件 | TensorBoard 日志文件(用于可视化训练过程) |
1.训练结果图tab
本系统基于 PyQt5 + YOLOv8 + DeepSeek 构建,实现对口罩佩戴状态的智能检测与可视化分析。在结果展示模块的该 tab 页面中,集中呈现模型训练与评估阶段生成的多维度指标图像,包括训练损失与性能指标曲线图、PR 曲线、Precision 曲线、Recall 曲线、F1 曲线,以及混淆矩阵与归一化混淆矩阵。同时还提供标签分布图与标签相关性图,用于分析数据集结构与类别关系。
这些图像以直观的方式嵌入界面中,用户无需额外操作即可快速浏览模型整体表现。例如,PR 曲线可反映模型在不同阈值下的查准率与召回率平衡,F1 曲线用于综合衡量模型性能,而混淆矩阵则清晰展示分类正确与误判情况。标签分布与相关性图则有助于判断数据是否均衡及类别间的潜在关联。
在交互设计上,用户可通过点击图像本身,或点击底部提供的图像路径,调用系统默认图像查看工具进行放大查看,提升细节分析能力。每张图像下方均附有简明且专业的说明文案,帮助用户理解其评估意义及应用价值,从而更全面地掌握模型训练效果与优化方向。

2.训练结果详情tab
在该子 tab 页面中,系统进一步对训练过程中的 results.csv 数据进行了结构化展示。通过将原始训练日志解析为二维表格,完整呈现模型在每一轮(epoch)中的关键指标变化情况,使用户能够以更加清晰、系统化的方式回顾训练全过程。界面设计上采用了简洁清新的视觉风格,并结合横向渐变配色对不同数值区间进行区分,使数据变化趋势更加直观,重点指标一目了然。
表格中包含了完整的字段信息,例如"轮次"和"时间"用于标识训练进度;"训练/边界框损失""训练/分类损失""训练/DFL损失"反映模型在训练阶段的收敛情况;"指标/精确率(B)""指标/召回率(B)"以及"指标/mAP@0.5(B)"和"指标/mAP@0.5:0.95(B)"用于综合评估模型检测性能;对应的"验证/边界框损失""验证/分类损失""验证/DFL损失"则用于判断模型的泛化能力与是否存在过拟合现象。此外,"学习率/pg0""学习率/pg1""学习率/pg2"展示了不同参数组在训练过程中的学习率动态变化,有助于分析优化策略的效果。
在交互体验方面,表格支持滚动浏览与高亮显示,用户可以快速定位关键轮次的数据变化。同时结合渐变色视觉编码,能够快速识别性能提升或波动区间。通过这一模块,用户不仅可以精确掌握模型训练的细节,还能够为后续参数调优与模型改进提供可靠的数据支撑,实现从"可视化观察"到"数据驱动优化"的有效过渡。

3.整体评估tab
在该页面中,系统对模型训练结果进行了更高层次的综合评估与总结分析。通过对关键指标进行统一整理与可视化表达,结合细致的颜色编码机制,将不同阶段的性能变化趋势清晰呈现出来,使用户能够从整体上把握模型训练的动态过程,而不仅仅停留在单一指标的观察。
在评估维度上,系统重点围绕多个核心方面展开。首先是收敛质量 ,通过训练与验证损失曲线的变化趋势,判断模型是否稳定收敛以及是否存在震荡或过早收敛的问题;其次是检测性能 ,结合 Precision、Recall 以及 F1 等指标,分析模型在目标检测任务中的准确性与覆盖能力;在泛化能力 方面,通过对比训练集与验证集指标差异,评估模型是否存在过拟合或欠拟合现象;同时利用 mAP 综合表现 (包括 mAP@0.5 与 mAP@0.5:0.95)对模型整体检测能力进行量化衡量,从多阈值角度反映检测精度的稳定性。
此外,系统还对学习率调度策略 进行了分析,通过展示不同参数组学习率随训练轮次的变化情况,帮助用户判断当前优化策略是否合理,以及是否需要进一步调整以提升训练效率或稳定性。所有评估结果均通过分层颜色与趋势变化进行突出展示,使关键结论更加直观易读。
在页面的最后部分,系统基于上述多维度分析结果,自动生成整体评估结论,并从工程应用视角给出总结性判断。例如模型是否已达到可部署标准、是否需要继续训练或优化数据集、以及在实际口罩检测场景中的预期表现。这种从数据到结论的完整闭环设计,有助于用户快速完成模型质量评估,并为后续系统部署与迭代提供明确依据。

6.数据查看界面
"历史数据"页面是系统中用于集中查看与管理过往记录的重要模块,整体设计清晰直观,通过两个独立的 Tab 实现不同维度数据的分类展示,方便用户快速切换与定位信息。
总体而言,"历史数据"页面通过清晰的结构划分与完善的功能设计,实现了检测记录与用户信息的高效管理与展示,为系统的运维与决策提供了有力支持。
1.历史数据tab
在"检测历史数据"Tab中,页面以结构化表格的形式呈现所有检测相关记录。每一条数据都包含关键字段:数据库ID用于唯一标识记录,目标类型用于说明检测对象的类别,检测结果用于反馈检测结论,检测日期则记录具体的时间信息。该模块不仅实现了数据的完整展示,还特别强化了可用性与交互体验------支持分页浏览功能,用户可以根据数据量分批查看内容,同时提供"跳转到第一页"、"上一页"、"下一页"以及"最后一页"等操作按钮,便于在大量数据中高效导航。这种分页机制有效避免了数据过载带来的性能问题,同时也提升了界面的响应速度和用户体验。

2.用户数据tab
其次,在"用户数据"Tab中,系统汇总展示了所有已注册用户的信息,是一个用于用户管理与审计的重要视图。页面同样采用表格形式,列出了数据库ID、用户名、用户角色以及最后登录日期时间等核心字段。通过这些信息,管理员可以快速了解系统用户的基本情况及活跃状态,例如判断某些用户是否长期未登录,从而进行进一步管理操作。该部分数据覆盖范围全面,确保系统管理者能够掌握整体用户分布与使用情况。

6.系统设置界面
我们的系统是支持简单的参数设置的,具体可以设置目标检测模型、置信度阈值(Conf)、交并比阈值(IOU)、还有一些检测结果控制参数,比如检测框展示、目标类别展示、目标置信度展示,用户可以点击绿色的刷新按钮刷新可用模型,亦可通过点击退出按钮退出系统或者退出登录,本设置页面实现了目标检测参数的灵活配置!

7.关于软件界面
我们使用富文本html的形式展示了软件相关的信息,包括系统用到的相关技术,对于二维的数据使用二维表进行了展示,最底部放置了四个按钮,分别是:关于YOLO、关于软件、关于作者、关于QT,点击之后都会弹出对应的信息提示框,这个页面的作用是让用户更多的了解软件和创作者信息,跨过技术的鸿沟!

四.数据集
本系统为"一款基于PyQt+YOLO+DeepSeek的布匹缺陷检测系统",用于自动检测多种布匹缺陷类型,包括:水印、沾污、漏印、破洞、织疵、缝头、缝头印、网折、色差、花毛、虫粘、蜡斑、褶子、错花及其他异常情况。
本系统所使用的数据集围绕布匹缺陷目标的多场景、多角度、多状态采集构建而成,旨在提升模型在真实工业环境中的适应性与鲁棒性。数据来源涵盖纺织车间、印染工厂、质检流水线、仓储环境以及户外运输场景等多类复杂应用环境,结合不同光照条件、摄像设备分辨率、拍摄角度、布匹纹理差异以及背景干扰因素,使模型能够学习到丰富且多样化的缺陷特征与环境变化。
图像内容覆盖多种实际缺陷表现形式,包括不同尺寸、不同形态、不同位置分布的缺陷区域,同时包含轻微缺陷与严重缺陷情况,以及局部遮挡、褶皱干扰、复杂纹理背景等挑战性样本。此外,还考虑了不同材质(如棉布、化纤、混纺)、颜色差异及生产工艺带来的视觉变化,以增强模型的泛化能力。
数据集中不仅包含高质量标注的缺陷边界框,还对缺陷类别及标注一致性进行了严格校验,确保训练数据的准确性与可靠性。经过数据清洗、去重、增强及标准化处理后,最终数据集能够满足YOLOv8等高性能目标检测模型的训练需求。
在此基础上,模型在实际部署过程中,即便在光照不足、布面褶皱、缺陷微小或背景复杂等情况下,仍能够保持稳定且高精度的检测效果。该数据集为系统实现高精度、高实时性的布匹缺陷检测提供了坚实的数据支撑。
1.数据准备
本系统附带3107张不同车型图像和3107个数据标注文件,大家可以根据自己的情况自行训练数据自己的模型!


上图是数据标注文件,格式为json,下面我们提供了相关脚本支持将Json转为YOLO的txt格式
我们使用json的格式存储数据标注文件,单数据标注文件内容如下:
bash
[
{
"name": "201909041_7006186a6dbcb05e0201909040153361OK.jpg",
"defect_name": "\u7f1d\u5934",
"bbox": [
1.16,
1073.93,
4087.64,
1198.59
]
},
{
"name": "201909041_02154b976b78fa280201909040155400OK.jpg",
"defect_name": "\u7f1d\u5934\u5370",
"bbox": [
4.55,
760.71,
4085.0,
881.0
]
},
{
"name": "201909041_9f82b99d6357138a0201909040445303OK.jpg",
"defect_name": "\u6cbe\u6c61",
"bbox": [
2111.74,
1561.25,
2182.58,
1596.67
]
}]
2.数据集处理
1.数据集标注文件类型转换
直接使用VOC格式的数据标注文件进行训练是不行的,需要我们将xml转成txt文件,
这段代码的作用是将指定文件夹中的 Pascal VOC 格式的 XML 标注文件批量转换为 YOLO 格式的 TXT 标注文件。它会先遍历所有 XML 自动统计有效类别并生成类别到 ID 的映射表,忽略类别名为 "not" 的标注,然后读取对应图片的尺寸,将 XML 中的边界框坐标转换为 YOLO 的归一化格式(class_id x_center y_center width height),最后将生成的 TXT 文件保存到指定目录中,便于直接用于 YOLO 训练。
大家首先执行step1_json_to_txt.py
python
import json
import os
from collections import defaultdict
import cv2
# ====== 路径配置 ======
import numpy as np
from train_conf import BASE_DIR
json_path = BASE_DIR + r"布匹缺陷-标注.json"
img_dir = BASE_DIR + "\defect"
label_dir = os.path.join(BASE_DIR, "labels")
os.makedirs(label_dir, exist_ok=True)
# ====== 读取 JSON ======
with open(json_path, "r", encoding="utf-8") as f:
data = json.load(f)
# ====== 类别映射 ======
classes = sorted(list(set(item["defect_name"] for item in data)))
class2id = {name: i for i, name in enumerate(classes)}
print("类别映射:")
for k, v in class2id.items():
print(k, "->", v)
# ====== 按图片分组 ======
img_annotations = defaultdict(list)
for item in data:
img_annotations[item["name"]].append(item)
def clean_name(name):
return name.replace("OK.jpg", ".jpg")
# ====== 转换函数 ======
def convert_bbox(size, bbox):
img_w, img_h = size
x1, y1, x2, y2 = bbox
w = x2 - x1
h = y2 - y1
xc = x1 + w / 2
yc = y1 + h / 2
# 归一化
return xc / img_w, yc / img_h, w / img_w, h / img_h
def imread_safe(path):
img = cv2.imdecode(
np.fromfile(path, dtype=np.uint8),
cv2.IMREAD_COLOR
)
return img
# ====== 生成 YOLO txt ======
for img_name, annos in img_annotations.items():
img_path = os.path.join(img_dir, img_name)
if not os.path.exists(img_path):
print("缺失图片:", img_path)
continue
img = imread_safe(img_path)
if img is None:
print("读取失败:", img_path)
continue
h, w = img.shape[:2]
txt_path = os.path.join(label_dir, img_name.replace(".jpg", ".txt"))
with open(txt_path, "w", encoding="utf-8") as f:
for anno in annos:
cls_name = anno["defect_name"]
cls_id = class2id[cls_name]
bbox = anno["bbox"]
x, y, bw, bh = convert_bbox((w, h), bbox)
f.write(f"{cls_id} {x:.6f} {y:.6f} {bw:.6f} {bh:.6f}\n")
print("转换完成!")
2.数据集拆分
YOLO 推荐训练集和测试集按 8:2 划分,主要是因为目标检测对样本量非常依赖,需要尽可能多的训练数据来学习特征,同时又必须保留足够的独立测试数据来评估模型的真实泛化能力。8:2 被证明在"训练数据够多"与"测试评估足够稳定"之间取得了较好平衡,因此成为默认且通用的实践比例。
这个脚本的作用是从已有的图片和 YOLO 标注文件中随机抽取 200 张图片,并将它们按照训练集和验证集的比例进行划分,然后将对应的图片和 TXT 标注文件复制到新的数据集目录中,方便直接用于训练 YOLO 模型。脚本会先创建训练集和验证集的图片、标签子目录,然后随机选择 指定数量的张图片,其中 五分之一作为验证集,其余 五分之四作为训练集,复制过程中会保证每张图片对应的标注文件也被同步复制,如果标注文件不存在,会生成一个空的 TXT 文件,以保持文件结构完整。运行完成后,新的数据集就整理好了,可以直接用于训练和验证。。最终会在目标目录下生成:

执行脚本step2_auto_part.py
bash
import os
import random
import shutil
from train_conf import BASE_DIR
# 原始数据路径
img_dir = BASE_DIR + "defect"
label_dir = BASE_DIR + "labels"
# 新数据集路径
dataset_dir = BASE_DIR + "dataset"
MAX_IMAGE_COUNT = 350
train_img_dir = os.path.join(dataset_dir, "train", "images")
train_label_dir = os.path.join(dataset_dir, "train", "labels")
val_img_dir = os.path.join(dataset_dir, "val", "images")
val_label_dir = os.path.join(dataset_dir, "val", "labels")
# 创建目录
for dir_path in [train_img_dir, train_label_dir, val_img_dir, val_label_dir]:
os.makedirs(dir_path, exist_ok=True)
# 获取所有图片文件
all_images = [f for f in os.listdir(img_dir) if f.lower().endswith((".jpg", ".png", ".jpeg"))]
# 随机抽取MAX_IMAGE_COUNT张
if len(all_images) < MAX_IMAGE_COUNT:
raise ValueError(f"图片数量不足MAX_IMAGE_COUNT张,当前数量: {len(all_images)}")
selected_images = random.sample(all_images, MAX_IMAGE_COUNT)
# 分割训练集和验证集
random.shuffle(selected_images)
val_images = selected_images[:40]
train_images = selected_images[40:]
def copy_files(image_list, target_img_dir, target_label_dir):
for img_file in image_list:
# 复制图片
src_img_path = os.path.join(img_dir, img_file)
dst_img_path = os.path.join(target_img_dir, img_file)
shutil.copy(src_img_path, dst_img_path)
# 对应的txt
label_file = os.path.splitext(img_file)[0] + ".txt"
src_label_path = os.path.join(label_dir, label_file)
if os.path.exists(src_label_path):
dst_label_path = os.path.join(target_label_dir, label_file)
shutil.copy(src_label_path, dst_label_path)
else:
# 如果没有对应txt文件,创建一个空文件
open(os.path.join(target_label_dir, label_file), "w").close()
# 复制训练集
copy_files(train_images, train_img_dir, train_label_dir)
# 复制验证集
copy_files(val_images, val_img_dir, val_label_dir)
print(f"随机抽取完成!训练集: {len(train_images)} 张,验证集: {len(val_images)} 张")
print(f"数据集路径: {dataset_dir}")
3.模型训练
数据集准备好之后就可以开始模型训练了,我们首先准备一个训练的配置文件,比如说是data.yaml

然后就可以开始模型训练了,直接执行我们准备好的train.bat文件,内容就是下面的内容
bash
yolo task=detect mode=train model=../data/model/yolov8n.pt data=./data.yaml epochs=30 imgsz=640 batch=16 lr0=0.01
用户亦可执行step3_train_model.py脚本进行模型训练
python
from ultralytics import YOLO
def main():
# 加载模型
model = YOLO("../data/model/yolov8n.pt")
# 开始训练
model.train(
data="./data.yaml", # 数据集配置
epochs=50, # 训练轮数
imgsz=640, # 输入尺寸
batch=16, # batch size
lr0=0.01, # 初始学习率
task="detect" # 任务类型
)
if __name__ == "__main__":
main()
然后模型就开始训练了
这里我贴一些训练验证结果截图




最后的results.png见下图,训练效果还是可以的!

bash
# 训练结果评估报告
本次训练整体表现为:**收敛稳定、指标持续提升、模型已具备一定检测能力**,属于一个"可用基础模型 + 具备进一步优化潜力"的良好状态。
---
## **收敛质量(loss 维度)**
训练集(train)loss 表现:
* `train/box_loss`:2.45 → **1.77(稳定下降)**
* `train/cls_loss`:5.58 → **2.57(显著下降)**
* `train/dfl_loss`:1.76 → **1.17(持续优化)**
👉 说明:
**模型训练过程稳定,优化充分,没有出现震荡或发散问题**
验证集(val)loss:
* `val/cls_loss`:5.94 → **≈3.0**
* `val/box_loss`:≈2.45 → **≈2.13**
* `val/dfl_loss`:≈1.55 → **≈1.27**
👉 优势:
**训练与验证同步下降,说明具备一定泛化能力,而非单纯过拟合**
---
## **检测性能(核心指标)**
### mAP 表现:
* mAP50:
* 从 0.01 提升至 **≈0.25**
* mAP50-95:
* 从 0.008 提升至 **≈0.15--0.17**
👉 优势:
* **整体呈上升趋势,说明模型确实学到了有效特征**
* 后期仍有提升,**不存在明显性能塌陷**
* 已达到"可用但需优化"的工程初始水平
---
## **Precision / Recall 分析**
* precision:多数阶段 **0.6 -- 0.8**
* recall:由低值逐步提升至 **0.15 -- 0.28**
👉 解读:
* precision 较高 → **预测结果相对可靠(误检较少)**
* recall 持续提升 → **模型正在逐步减少漏检**
👉 优势总结:
**模型从"保守检测"逐渐向"平衡检测"演进,是健康训练的典型特征**
---
## **训练阶段表现**
### 中期(10--30 epoch):
* 指标稳步上升
* loss 快速下降
👉 **模型进入有效学习阶段**
### 后期(30--50 epoch):
* mAP 持续缓慢提升
* precision / recall 更加平衡
👉 优势:
**后期仍在学习,没有明显过拟合或性能退化**
---
## **学习率表现**
* 学习率从 `~5e-4` 平滑衰减至 `~1.5e-5`
👉 优势:
* 调度合理,**保证前期快速收敛 + 后期精细优化**
* 未出现梯度震荡或训练不稳定问题
---
## **整体结论**
本次训练可以总结为:
1. ✅ 收敛稳定,loss 持续下降
2. ✅ 验证集同步优化,具备泛化能力
3. ✅ mAP 持续提升,模型已学到有效特征
4. ✅ precision 较高,预测结果可靠
5. ✅ recall 正在改善,模型逐步完善
---
## **工程视角评估**
👉 当前模型状态:
**可以作为基础模型投入使用(尤其适用于对误检敏感的场景)**
---
## **优势总结(重点)**
* ✔ 训练过程稳定,无异常
* ✔ 指标整体上升趋势清晰
* ✔ 高 precision → 结果可信度高
* ✔ 后期仍在学习 → 具备继续优化空间
* ✔ 学习率策略合理
---
## **进一步优化方向(增强收益)**
在当前良好基础上,可进一步提升性能:
### 1. 提升召回率(重点)
* 调低 conf threshold
* 调整 NMS 参数
* 增加困难样本训练
---
### 2. 数据增强优化
* 增强小目标样本
* 控制过强增强(避免学习困难)
---
### 3. 模型升级
* 提高输入分辨率(如 640 → 768/1024)
* 使用更大模型(如 medium / large)
---
## **总结**
本次训练属于:
👉 **"收敛良好 + 已具备实用价值 + 可进一步提升"的优质训练结果**
模型已经建立了较好的检测基础,后续通过数据与策略优化,有较大概率进一步提升到工程可部署水平。
在这里插入图片描述
五.关于项目
1.开发环境
本系统是在 Windows 11 操作系统上进行开发的,Python 环境采用的是 Python 3.8 版本,硬件方面使用的是 AMD 处理器 ,未配备独立显卡,开发工具为 PyCharm 2021.3 版本。在整个开发与测试过程中,我们严格遵循了上述环境配置,确保了系统的稳定运行。在此特别建议所有使用者:为了避免出现因版本过新而导致的"不兼容"情况,请大家尽量不要使用过高的 Python 版本(如 Python 3.11 及以上),也不要使用最新的 PyCharm 或操作系统版本。因为较新的环境可能对部分依赖库或语法特性支持不佳,容易引发意外的报错或功能异常。遵循本项目所推荐的版本配置,能够最大程度地保证系统的顺利部署与稳定运行。
2.项目部署
1.项目依赖
博主是在Windows电脑上使用Python3.8开发的本系统,建议大家使用的Python版本别太高。
其中项目依赖为:
bash
PyQt5==5.15.11
QtAwesome==1.3.1
torch==2.4.1
torchvision==0.19.1
Pillow==9.3.0
pyqtgraph===0.13.3
PyQtWebEngine==5.15.5
opencv-python==4.10.0.82
ultralytics==8.3.234
Requests==2.32.5
pandas==2.0.3
numpy==1.24.4
Markdown==3.4.4
我已经整理到了requirements.txt,大家直接使用命令
pip install -r requirements.txt
即可一键安装项目依赖,其中的torch和torchvision只要匹配即可,不一定非要和博主开发环境的版本一致。
2.项目结构
很多小伙伴担心拿到代码后项目看不懂,这个大家不必担心,我们采用文件+类名对相关功能进行了模块化定义,大家见名知意。
下图博主采用tree命令生成了文件、目录树
bash
tree "D:\projects\gitee\2026\yolo_projects\yolov8-fabric-defects-detect" /f /a
bash
D:\PROJECTS\GITEE\2026\YOLO_PROJECTS\YOLOV8-FABRIC-DEFECTS-DETECT
| main.py
| record.txt
| requirements.txt
|
+---data
| +---database
| | data.db
| |
| +---db
| | db.csv
| |
| +---font
| | hanyi_yahei.ttf
| |
| |
| \---model
| best.pt
| yolov8n.pt
+---script
| create_qrc.py
|
\---src
+---conf
| style_conf.py
| system_conf.py
| test_data.py
| __init__.py
|
+---engine
| engines.py
| __init__.py
|
+---resource
| | resource.qrc
| | resource_rc.py
| | __init__.py
| |
| +---imgs
| | ai.gif
| | ai.svg
| | bg.jpeg
| | login_gif.gif
| |
| \---js
| echarts.min.js
|
+---threads
| main_threads.py
| signal_bus.py
| __init__.py
|
+---utils
| custom_utils.py
| __init__.py
|
\---widgets
base_widgets.py
custom_pages.py
custom_widgets.py
main_page.py
unique_widgets.py
__init__.py

3.项目启动
本系统的项目启动十分简单:在安装好所有相关依赖之后,直接执行 main.py 文件,即可自动打开系统的登录注册页面。用户进入该页面后,通过输入匹配的用户名和密码完成登录操作。为方便初次体验,系统内置了一个默认账号,用户名为 admin,密码也为 admin,用户可以直接使用这组账号进行快速登录。当用户成功登录后,系统主界面会完整展示出来,而之前的登录注册页面则会自动隐藏,从而为用户提供清晰、流畅的操作体验。
4.往期优秀作品
六.总结
基于PyQt5+YOLOv8+DeepSeek的布匹缺陷检测系统的提出,源于纺织行业对产品质量控制与自动化检测需求持续提升的时代背景。随着布匹生产规模的不断扩大以及工艺复杂度的提高,各类缺陷(如水印、沾污、漏印、破洞、织疵、缝头、缝头印、网折、色差、花毛、虫粘、蜡斑、褶子、错花、其他)的精准识别与分类管理,已成为质量检测与生产管理中的关键环节。然而,传统依赖人工检验或基础视觉设备的方式不仅效率低下,而且容易受到主观因素影响,难以及时、准确地完成多类别缺陷的识别与记录,亟需更加智能化的技术手段加以支撑。
与此同时,计算机视觉技术在深度学习的推动下取得了显著进展,尤其是以YOLOv8为代表的目标检测模型,在实时性与检测精度方面表现突出,能够高效识别多种布匹缺陷目标;PyQt5在桌面应用开发领域成熟稳定,为系统提供了良好的图形化交互界面和清晰的业务逻辑组织方式,使得系统具备较强的可用性与扩展性;而DeepSeek类语言模型的引入,使系统在检测结果分析、异常情况解释以及自动生成质量报告和智能参数调优等方面具备更高层次的智能化能力。三者的融合,使布匹缺陷检测从单一的图像识别功能,升级为集检测、分析、交互与智能辅助于一体的综合系统。
该系统的意义体现在多个层面:在生产管理层面,它能够在纺织生产线、质检车间等场景中实现对布匹缺陷的实时检测与分类统计,提高质量控制效率;在技术层面,它体现了深度学习视觉算法与智能交互技术的有机融合;在产业层面,它为纺织行业智能制造与数字化转型提供了更加高效、智能的解决方案;在社会价值层面,它有助于提升产品质量水平、降低人工成本,并为企业决策提供可靠的数据支持。
总体来看,该系统不仅是多种前沿技术融合的成果,更是面向实际纺织生产场景需求的创新实践,具有良好的应用前景与推广价值。
本次给大家介绍了我使用PyQt5+YOLOv8+DeepSeek的布匹缺陷检测系统,本系统功能强大,支持多种数据源输入,包含多种用户交互按钮以及模式,内置数据可视化方案、大模型AI加持,是您学习、工作使用的不错选择!
需要代码的朋友可以点击箭头下方的二维码加我好友,欢迎您了解!
如需帮助请私聊博主!





