1. Introduction
SSL的成功主要有以下两个方面:
(1)一致性正则化: 如果对一个未标记的数据应用实际的扰动, 其预测结果不应该发生显著变化, 也就是输出具有一致性,通过在未标记数据上构造添加扰动后的预测结果 y~ 与正常预测结果 y之间的无监督正则化损失项, 提高模型的泛化能力。关键思想是首先为未标记的数据生成人工标签,并训练模型在为未标记的数据提供保持语义的随机增强时预测这些人工标签。
(2)数据增强技术的发展
本文的工作:
利用深度SSL在图像分类方面的经验来解决SSL用于目标检测的问题。 提出了一个用于对象检测的SSL框架,该框架结合了自我训练(通过伪标签)和基于强数据增强的一致性正则化。 受NoisyStudent框架的启发,系统包含两个训练阶段。
NoisyStudent框架流程:Self-training with Noisy Student improves ImageNet classification论文解析-CSDN博客
(1)首先将在ImageNet上训练好的模型作为Teacher Network来训练Student Network
(2)再使用训练好的T网络(无噪音)来对另一个数据集[JFT dataset]生成尽可能准确的伪标签
(3)之后使用生成伪标签的数据集[JFT dataset]和ImageNet一起训练Student Network
(4)Student Network中增加了模型噪音(1)DropOut(2)随机深度和数据噪音:(1)对图片进行数据增强
(1)首先,我们会将Unlabeled images经过Teacher模型,生成伪标签(NMS之后置信度过滤完成的高精度伪标签),还会为增强之后的imasge生成增强伪标签
(2) 在第二阶段,对每个未标记的图像应用强数据增强,并使用标记数据和未标记数据及其在第一阶段生成的相应伪标签训练模型
(3)将数据增强后的images输入进入Student模型进行Predict,然后再与教师生成的伪标签(增强之后的)进行损失计算。学生模型逐步学习未标注数据中的特征,优化自己的权重。
半监督学习方法:
1、基于一致性正则化:使模型对输入数据的微小扰动保持一致的输出。MeanTeacher、UDA和MixMatch
2、基于伪标签:利用模型自身对无标签数据的预测结果作为"伪造"的标签,以此来扩充训练数据集noise -student、FixMatch(如果有时间把这几篇论文都看一下)
**数据增强:**适当的颜色变换和输入空间的几何变换是关键
全局水平翻转(弱增强)来构建一致性损失,强增强还未得到深入研究
3. Methodology
3.1Unsupervised Loss in SSL
3.2STAC
训练步骤:
1、在可用的标记图像上训练一个教师模型(参考noise -student模型)
2、对unlabelled images生成伪标签(经过NMS之后,且基于置信度的阈值过滤)
3、对未标记的图像应用强数据增强,并在应用全局几何变换时相应地增强伪标签(即边界框)
生成伪标签:基于Fast RCNN网络
教师模型 包括了目标检测的关键组成部分:Backbone (主干网络,用于提取特征)、RPN (区域建议网络,用于生成候选框)、和 CLS 网络(分类网络,用于对候选框进行分类)。
伪标签 生成和传统的分类任务不同。分类任务通常直接使用原始的预测概率(如 softmax 输出)来计算置信度分数,而在目标检测中,生成伪标签的置信度分数是通过 NMS 之后的边界框来确定的。NMS 后的分数是基于汇总多个 anchor 框的预测概率,而不是直接使用单个预测的原始概率
**置信度:**为了进一步减少错误检测,使用了基于置信度的阈值筛选(confidence-based thresholding),这是从 FixMatch 和 Noisy Student 方法中借鉴的。
无监督损失:
如果锚点与任何教师模型的CLS预测置信度分数高于阈值 τ的伪边界框相关联,则 qi∗为 1;否则为 0(即被视为背景)。
λu: 是一个超参数,用于平衡有监督损失和无监督损失。在实验中,发现 λu 在区间 [1,2] 内表现良好。
数据增强策略:
(1)全局颜色变换(C)
(2)全局几何变换(G):x-y平移、旋转、x-y剪切
(3)Box-level transformation
4.Experiments
当使用更多的标记训练数据和更复杂的数据增强策略时,训练时间越长,模型的性能越好
使用τ =0.9和λu =2进行所有实验,我们降低阈值τ =0.5以提高伪标签的召回率
5. Ablation Study
5.1. Data Augmentation
数据增强策略在具有少量label标记的数据上表现比较好;当使用所有标记数据进行训练时,网络明显不适合增强策略,但是可以通过增加训练时常来解决这个问题。
5.2Size of Unlabeled Data
STAC从更大规模的未标记训练数据中表现更好
5.3λu and τ
5.4. Quality of Pseudo Labels
实验发现,提高伪标签的质量(不同的数据增强方法训练)其实效果不是特别明显