很清爽的 abstract
给出链接 前面的背景意义 其实 是通用的
这里替大家 整理一吓吓
1 缺陷分类在钢铁表面缺陷检测中 有 意义。
2 大多数缺陷分类模型都是基于完全监督的学习,
这需要大量带有图像标签的训练数据。
在工业场景中收集有缺陷的图像是非常困难的。
图像注释也很昂贵且耗时
(然后还有一句小声逼逼
就是大家有没有发现如果读一个具体领域的paper 其实会越读越快
是不是因为很多的内容都会重复呀 所以 paper 有一些部分就会读的很快
然后根据自己paper的积累有一些地方也能加速 对不 )
如图1所示,在训练阶段使用来自基类的样本来训练一个强大的特征提取器。在测试阶段,我们将新类的样本作为输入,并在支持数据集中使用很少的标记图像来完成查询图像的分类。
这也是我唯一一篇看了abstract 和introduction 没头脑的 一篇哈哈哈哈哈 自己还是太菜了
吃饭去喽
FSC 的元学习方法主要有三种类型的。
首先,基于优化的方法[14]、[15]通过集成元测试过程中的微调过程来学习用少量新样本微调模型。该方法[16]是一种流行的元优化方法,它学习一组初始权重,这些权重适用于少量梯度步骤中的特定任务。
其次,基于度量的方法通过测量样本之间的相似信息来探索样本之间的本质差异,例如欧几里得距离[17]、图神经网络[18]或余弦相似度[19]。
第三,数据增强方法通过生成或幻觉新数据来增加训练过程中有限的数据。在[20]中,提出了一种自监督数据增强方法。首先,用标记样本训练模型,然后使用该模型为未标记样本生成伪标签以增强训练数据。
这工作的两个点
首先,考虑不同样本特征之间的相关信息,通过GE集成不同特征之间的相关信息。
其次,保证了不同类嵌入样本后分布的一致性,减少了新类上样本的分布偏差。
特征提取阶段、
In the term of data augmentation, we have chosen two self-supervised learning methods
GEDT阶段
训练样本的分布偏度可能会导致过拟合
减少分布偏度,校准分布可以得到更准确的估计。
Distribution Transformation (DT): The purpose of the DT is to ensure the consistency of the sample in Dnovel and reduce the distribution skewness.
DT 的目的是确保 Dnovel 中样本的一致性并减少分布偏度。
OPT阶段
当样本数量有限且每个类只有部分标记样本时,准确估计类的中心变得很重要。Hu等人[9]提出了期望极大值算法,通过迭代找到最大概率(MAP)来估计类中心。同时,也证明了通过最大后验概率估计类的中心等价于最小化[9]中的Wasserstein距离。
这一篇 是需要我 再读几遍吧 没读懂 虽然知道他想做什么事情。但是全程很朦