A Simple Semi-Supervised Learning Framework for Object Detection

1. Introduction

SSL的成功主要有以下两个方面:

(1)一致性正则化: 如果对一个未标记的数据应用实际的扰动, 其预测结果不应该发生显著变化, 也就是输出具有一致性,通过在未标记数据上构造添加扰动后的预测结果 y~​ 与正常预测结果 y之间的无监督正则化损失项, 提高模型的泛化能力。关键思想是首先为未标记的数据生成人工标签,并训练模型在为未标记的数据提供保持语义的随机增强时预测这些人工标签。

(2)数据增强技术的发展

本文的工作:

利用深度SSL在图像分类方面的经验来解决SSL用于目标检测的问题。 提出了一个用于对象检测的SSL框架,该框架结合了自我训练(通过伪标签)和基于强数据增强的一致性正则化。 受NoisyStudent框架的启发,系统包含两个训练阶段。

NoisyStudent框架流程:Self-training with Noisy Student improves ImageNet classification论文解析-CSDN博客

(1)首先将在ImageNet上训练好的模型作为Teacher Network来训练Student Network

(2)再使用训练好的T网络(无噪音)来对另一个数据集[JFT dataset]生成尽可能准确的伪标签

(3)之后使用生成伪标签的数据集[JFT dataset]和ImageNet一起训练Student Network

(4)Student Network中增加了模型噪音(1)DropOut(2)随机深度和数据噪音:(1)对图片进行数据增强

(1)首先,我们会将Unlabeled images经过Teacher模型,生成伪标签(NMS之后置信度过滤完成的高精度伪标签),还会为增强之后的imasge生成增强伪标签

(2) 在第二阶段,对每个未标记的图像应用强数据增强,并使用标记数据和未标记数据及其在第一阶段生成的相应伪标签训练模型

(3)将数据增强后的images输入进入Student模型进行Predict,然后再与教师生成的伪标签(增强之后的)进行损失计算。学生模型逐步学习未标注数据中的特征,优化自己的权重。

半监督学习方法:

1、基于一致性正则化:使模型对输入数据的微小扰动保持一致的输出。MeanTeacher、UDA和MixMatch

2、基于伪标签:利用模型自身对无标签数据的预测结果作为"伪造"的标签,以此来扩充训练数据集noise -student、FixMatch(如果有时间把这几篇论文都看一下)

**数据增强:**适当的颜色变换和输入空间的几何变换是关键

全局水平翻转(弱增强)来构建一致性损失,强增强还未得到深入研究

3. Methodology

3.1Unsupervised Loss in SSL

3.2STAC

训练步骤:

1、在可用的标记图像上训练一个教师模型(参考noise -student模型)

2、对unlabelled images生成伪标签(经过NMS之后,且基于置信度的阈值过滤)

3、对未标记的图像应用强数据增强,并在应用全局几何变换时相应地增强伪标签(即边界框)

生成伪标签:基于Fast RCNN网络

教师模型 包括了目标检测的关键组成部分:Backbone (主干网络,用于提取特征)、RPN (区域建议网络,用于生成候选框)、和 CLS 网络(分类网络,用于对候选框进行分类)。

伪标签 生成和传统的分类任务不同。分类任务通常直接使用原始的预测概率(如 softmax 输出)来计算置信度分数,而在目标检测中,生成伪标签的置信度分数是通过 NMS 之后的边界框来确定的。NMS 后的分数是基于汇总多个 anchor 框的预测概率,而不是直接使用单个预测的原始概率

**置信度:**为了进一步减少错误检测,使用了基于置信度的阈值筛选(confidence-based thresholding),这是从 FixMatch 和 Noisy Student 方法中借鉴的。

无监督损失:

如果锚点与任何教师模型的CLS预测置信度分数高于阈值 τ的伪边界框相关联,则 qi∗为 1;否则为 0(即被视为背景)。

λu​:​ 是一个超参数,用于平衡有监督损失和无监督损失。在实验中,发现 λu​ 在区间 [1,2] 内表现良好。

数据增强策略:

(1)全局颜色变换(C)

(2)全局几何变换(G):x-y平移、旋转、x-y剪切

(3)Box-level transformation

4.Experiments

当使用更多的标记训练数据和更复杂的数据增强策略时,训练时间越长,模型的性能越好

使用τ =0.9和λu =2进行所有实验,我们降低阈值τ =0.5以提高伪标签的召回率

5. Ablation Study

5.1. Data Augmentation

数据增强策略在具有少量label标记的数据上表现比较好;当使用所有标记数据进行训练时,网络明显不适合增强策略,但是可以通过增加训练时常来解决这个问题。

5.2Size of Unlabeled Data

STAC从更大规模的未标记训练数据中表现更好

5.3λu and τ

5.4. Quality of Pseudo Labels

实验发现,提高伪标签的质量(不同的数据增强方法训练)其实效果不是特别明显

相关推荐
qq_529025294 分钟前
Torch.gather
python·深度学习·机器学习
IT古董36 分钟前
【漫话机器学习系列】017.大O算法(Big-O Notation)
人工智能·机器学习
凯哥是个大帅比37 分钟前
人工智能ACA(五)--深度学习基础
人工智能·深度学习
m0_748232921 小时前
DALL-M:基于大语言模型的上下文感知临床数据增强方法 ,补充
人工智能·语言模型·自然语言处理
szxinmai主板定制专家1 小时前
【国产NI替代】基于FPGA的32通道(24bits)高精度终端采集核心板卡
大数据·人工智能·fpga开发
海棠AI实验室1 小时前
AI的进阶之路:从机器学习到深度学习的演变(三)
人工智能·深度学习·机器学习
机器懒得学习1 小时前
基于YOLOv5的智能水域监测系统:从目标检测到自动报告生成
人工智能·yolo·目标检测
QQ同步助手2 小时前
如何正确使用人工智能:开启智慧学习与创新之旅
人工智能·学习·百度
AIGC大时代2 小时前
如何使用ChatGPT辅助文献综述,以及如何进行优化?一篇说清楚
人工智能·深度学习·chatgpt·prompt·aigc