钢铁异常分类 few-shot 问题 小陈读paper 钢铁2

很清爽的 abstract

给出链接 前面的背景意义 其实 是通用的

这里替大家 整理一吓吓

1 缺陷分类在钢铁表面缺陷检测中 有 意义。

2 大多数缺陷分类模型都是基于完全监督的学习,

这需要大量带有图像标签的训练数据。

在工业场景中收集有缺陷的图像是非常困难的。

图像注释也很昂贵且耗时

(然后还有一句小声逼逼

就是大家有没有发现如果读一个具体领域的paper 其实会越读越快

是不是因为很多的内容都会重复呀 所以 paper 有一些部分就会读的很快

然后根据自己paper的积累有一些地方也能加速 对不 )

如图1所示,在训练阶段使用来自基类的样本来训练一个强大的特征提取器。在测试阶段,我们将新类的样本作为输入,并在支持数据集中使用很少的标记图像来完成查询图像的分类。

这也是我唯一一篇看了abstract 和introduction 没头脑的 一篇哈哈哈哈哈 自己还是太菜了

吃饭去喽

FSC 的元学习方法主要有三种类型的。

首先,基于优化的方法[14]、[15]通过集成元测试过程中的微调过程来学习用少量新样本微调模型。该方法[16]是一种流行的元优化方法,它学习一组初始权重,这些权重适用于少量梯度步骤中的特定任务。

其次,基于度量的方法通过测量样本之间的相似信息来探索样本之间的本质差异,例如欧几里得距离[17]、图神经网络[18]或余弦相似度[19]。

第三,数据增强方法通过生成或幻觉新数据来增加训练过程中有限的数据。在[20]中,提出了一种自监督数据增强方法。首先,用标记样本训练模型,然后使用该模型为未标记样本生成伪标签以增强训练数据。

这工作的两个点

首先,考虑不同样本特征之间的相关信息,通过GE集成不同特征之间的相关信息。

其次,保证了不同类嵌入样本后分布的一致性,减少了新类上样本的分布偏差。

特征提取阶段、

In the term of data augmentation, we have chosen two self-supervised learning methods

GEDT阶段

训练样本的分布偏度可能会导致过拟合

减少分布偏度,校准分布可以得到更准确的估计。

Distribution Transformation (DT): The purpose of the DT is to ensure the consistency of the sample in Dnovel and reduce the distribution skewness.

DT 的目的是确保 Dnovel 中样本的一致性并减少分布偏度。

OPT阶段

当样本数量有限且每个类只有部分标记样本时,准确估计类的中心变得很重要。Hu等人[9]提出了期望极大值算法,通过迭代找到最大概率(MAP)来估计类中心。同时,也证明了通过最大后验概率估计类的中心等价于最小化[9]中的Wasserstein距离。

这一篇 是需要我 再读几遍吧 没读懂 虽然知道他想做什么事情。但是全程很朦

相关推荐
李昊哲小课15 分钟前
K近邻算法的分类与回归应用场景
python·机器学习·分类·数据挖掘·回归·近邻算法·sklearn
jndingxin42 分钟前
OpenCV直线段检测算法类cv::line_descriptor::LSDDetector
人工智能·opencv·算法
胖达不服输1 小时前
「日拱一码」027 深度学习库——PyTorch Geometric(PyG)
人工智能·pytorch·深度学习·pyg·深度学习库
deephub1 小时前
贝叶斯状态空间神经网络:融合概率推理和状态空间实现高精度预测和可解释性
人工智能·深度学习·神经网络·贝叶斯概率·状态空间
壹立科技1 小时前
壹脉销客AI电子名片源码核心架构
人工智能·架构·电子名片
YUQI的博客1 小时前
小白入门:通过手搓神经网络理解深度学习
人工智能·深度学习·神经网络
笑小枫2 小时前
Pytorch使用GPU训练全过程,包含安装CUDA、cuDNN、PyTorch
人工智能·pytorch·python
Blossom.1182 小时前
深度学习中的注意力机制:原理、应用与实践
人工智能·深度学习·神经网络·机器学习·生成对抗网络·计算机视觉·sklearn
飞哥数智坊2 小时前
Cursor替代方案整理,附模型不可用进阶解决方案
人工智能·claude·cursor
摸鱼仙人~3 小时前
现代人工智能综合分类:大模型时代的架构、模态与生态系统
人工智能·分类·数据挖掘