A Simple Semi-Supervised Learning Framework for Object Detection

1. Introduction

SSL的成功主要有以下两个方面:

(1)一致性正则化: 如果对一个未标记的数据应用实际的扰动, 其预测结果不应该发生显著变化, 也就是输出具有一致性,通过在未标记数据上构造添加扰动后的预测结果 y~​ 与正常预测结果 y之间的无监督正则化损失项, 提高模型的泛化能力。关键思想是首先为未标记的数据生成人工标签,并训练模型在为未标记的数据提供保持语义的随机增强时预测这些人工标签。

(2)数据增强技术的发展

本文的工作:

利用深度SSL在图像分类方面的经验来解决SSL用于目标检测的问题。 提出了一个用于对象检测的SSL框架,该框架结合了自我训练(通过伪标签)和基于强数据增强的一致性正则化。 受NoisyStudent框架的启发,系统包含两个训练阶段。

NoisyStudent框架流程:Self-training with Noisy Student improves ImageNet classification论文解析-CSDN博客

(1)首先将在ImageNet上训练好的模型作为Teacher Network来训练Student Network

(2)再使用训练好的T网络(无噪音)来对另一个数据集[JFT dataset]生成尽可能准确的伪标签

(3)之后使用生成伪标签的数据集[JFT dataset]和ImageNet一起训练Student Network

(4)Student Network中增加了模型噪音(1)DropOut(2)随机深度和数据噪音:(1)对图片进行数据增强

(1)首先,我们会将Unlabeled images经过Teacher模型,生成伪标签(NMS之后置信度过滤完成的高精度伪标签),还会为增强之后的imasge生成增强伪标签

(2) 在第二阶段,对每个未标记的图像应用强数据增强,并使用标记数据和未标记数据及其在第一阶段生成的相应伪标签训练模型

(3)将数据增强后的images输入进入Student模型进行Predict,然后再与教师生成的伪标签(增强之后的)进行损失计算。学生模型逐步学习未标注数据中的特征,优化自己的权重。

半监督学习方法:

1、基于一致性正则化:使模型对输入数据的微小扰动保持一致的输出。MeanTeacher、UDA和MixMatch

2、基于伪标签:利用模型自身对无标签数据的预测结果作为"伪造"的标签,以此来扩充训练数据集noise -student、FixMatch(如果有时间把这几篇论文都看一下)

**数据增强:**适当的颜色变换和输入空间的几何变换是关键

全局水平翻转(弱增强)来构建一致性损失,强增强还未得到深入研究

3. Methodology

3.1Unsupervised Loss in SSL

3.2STAC

训练步骤:

1、在可用的标记图像上训练一个教师模型(参考noise -student模型)

2、对unlabelled images生成伪标签(经过NMS之后,且基于置信度的阈值过滤)

3、对未标记的图像应用强数据增强,并在应用全局几何变换时相应地增强伪标签(即边界框)

生成伪标签:基于Fast RCNN网络

教师模型 包括了目标检测的关键组成部分:Backbone (主干网络,用于提取特征)、RPN (区域建议网络,用于生成候选框)、和 CLS 网络(分类网络,用于对候选框进行分类)。

伪标签 生成和传统的分类任务不同。分类任务通常直接使用原始的预测概率(如 softmax 输出)来计算置信度分数,而在目标检测中,生成伪标签的置信度分数是通过 NMS 之后的边界框来确定的。NMS 后的分数是基于汇总多个 anchor 框的预测概率,而不是直接使用单个预测的原始概率

**置信度:**为了进一步减少错误检测,使用了基于置信度的阈值筛选(confidence-based thresholding),这是从 FixMatch 和 Noisy Student 方法中借鉴的。

无监督损失:

如果锚点与任何教师模型的CLS预测置信度分数高于阈值 τ的伪边界框相关联,则 qi∗为 1;否则为 0(即被视为背景)。

λu​:​ 是一个超参数,用于平衡有监督损失和无监督损失。在实验中,发现 λu​ 在区间 [1,2] 内表现良好。

数据增强策略:

(1)全局颜色变换(C)

(2)全局几何变换(G):x-y平移、旋转、x-y剪切

(3)Box-level transformation

4.Experiments

当使用更多的标记训练数据和更复杂的数据增强策略时,训练时间越长,模型的性能越好

使用τ =0.9和λu =2进行所有实验,我们降低阈值τ =0.5以提高伪标签的召回率

5. Ablation Study

5.1. Data Augmentation

数据增强策略在具有少量label标记的数据上表现比较好;当使用所有标记数据进行训练时,网络明显不适合增强策略,但是可以通过增加训练时常来解决这个问题。

5.2Size of Unlabeled Data

STAC从更大规模的未标记训练数据中表现更好

5.3λu and τ

5.4. Quality of Pseudo Labels

实验发现,提高伪标签的质量(不同的数据增强方法训练)其实效果不是特别明显

相关推荐
AI科技星3 分钟前
宇宙的像素:真空中一点如何编码无限星光
数据结构·人工智能·算法·机器学习·重构
Σίσυφος19007 分钟前
PnP和P3P详解与Matlab 实现
人工智能·计算机视觉
CP-DD8 分钟前
训练可以正常开始 一到 Validation 就直接炸 a PTX JIT compilation failed
python·深度学习·计算机视觉
TG:@yunlaoda360 云老大12 分钟前
如何确保华为云国际站代理商的服务可用性?
数据库·人工智能·华为云
liliangcsdn14 分钟前
DDPM前向加噪过程详细推导
人工智能·算法·机器学习
拓端研究室14 分钟前
专题:2025电商行业洞察报告:数字化、订阅电商、内容营销、B2B|附200+份报告PDF、数据、可视化模板汇总下载
大数据·人工智能
学长讲AI16 分钟前
测评10个论文降AI率/去AI痕迹的工具网站(2025年最新)
人工智能
love530love18 分钟前
【笔记】ComfyUI 启动时端口被占用(PermissionError [winerror 10013])解决方案
人工智能·windows·笔记·stable diffusion·aigc·端口·comfyui
算法与编程之美22 分钟前
PyTorch中torch.flatten()函数的用法
人工智能·pytorch·python·深度学习·机器学习
Biehmltym31 分钟前
【AI】02实现AI Agent全栈:十分钟,跑通Python调用 Gemini(大模型)的小型Web项目
人工智能·windows·python