钢铁异常分类 few-shot 问题 小陈读paper 钢铁2

很清爽的 abstract

给出链接 前面的背景意义 其实 是通用的

这里替大家 整理一吓吓

1 缺陷分类在钢铁表面缺陷检测中 有 意义。

2 大多数缺陷分类模型都是基于完全监督的学习,

这需要大量带有图像标签的训练数据。

在工业场景中收集有缺陷的图像是非常困难的。

图像注释也很昂贵且耗时

(然后还有一句小声逼逼

就是大家有没有发现如果读一个具体领域的paper 其实会越读越快

是不是因为很多的内容都会重复呀 所以 paper 有一些部分就会读的很快

然后根据自己paper的积累有一些地方也能加速 对不 )

如图1所示,在训练阶段使用来自基类的样本来训练一个强大的特征提取器。在测试阶段,我们将新类的样本作为输入,并在支持数据集中使用很少的标记图像来完成查询图像的分类。

这也是我唯一一篇看了abstract 和introduction 没头脑的 一篇哈哈哈哈哈 自己还是太菜了

吃饭去喽

FSC 的元学习方法主要有三种类型的。

首先,基于优化的方法[14]、[15]通过集成元测试过程中的微调过程来学习用少量新样本微调模型。该方法[16]是一种流行的元优化方法,它学习一组初始权重,这些权重适用于少量梯度步骤中的特定任务。

其次,基于度量的方法通过测量样本之间的相似信息来探索样本之间的本质差异,例如欧几里得距离[17]、图神经网络[18]或余弦相似度[19]。

第三,数据增强方法通过生成或幻觉新数据来增加训练过程中有限的数据。在[20]中,提出了一种自监督数据增强方法。首先,用标记样本训练模型,然后使用该模型为未标记样本生成伪标签以增强训练数据。

这工作的两个点

首先,考虑不同样本特征之间的相关信息,通过GE集成不同特征之间的相关信息。

其次,保证了不同类嵌入样本后分布的一致性,减少了新类上样本的分布偏差。

特征提取阶段、

In the term of data augmentation, we have chosen two self-supervised learning methods

GEDT阶段

训练样本的分布偏度可能会导致过拟合

减少分布偏度,校准分布可以得到更准确的估计。

Distribution Transformation (DT): The purpose of the DT is to ensure the consistency of the sample in Dnovel and reduce the distribution skewness.

DT 的目的是确保 Dnovel 中样本的一致性并减少分布偏度。

OPT阶段

当样本数量有限且每个类只有部分标记样本时,准确估计类的中心变得很重要。Hu等人[9]提出了期望极大值算法,通过迭代找到最大概率(MAP)来估计类中心。同时,也证明了通过最大后验概率估计类的中心等价于最小化[9]中的Wasserstein距离。

这一篇 是需要我 再读几遍吧 没读懂 虽然知道他想做什么事情。但是全程很朦

相关推荐
无垠的广袤4 分钟前
【Titan RA8P1 Board】MNIST 数字识别
人工智能·单片机·瑞萨·mnist·数字识别·ra8p1·ruhmi
witAI4 分钟前
手机生成剧本杀软件2025推荐,创新剧情设计工具助力创作
人工智能·python
人工智能AI技术5 分钟前
2026年AI编程新范式:“渐进式Spec“
人工智能
砍材农夫12 分钟前
spring-ai 第三结构化输出
java·人工智能·spring
tHeya06II18 分钟前
.NET AI 核心构建块:重塑智能应用开发的架构范式与生态
人工智能·架构·.net
m0_7372469823 分钟前
B端&企业内部产品AI赋能的机会点识别和落地
人工智能
comedate29 分钟前
【OpenClaw】图像配置指南
人工智能·openclaw·图像修改
王忘杰30 分钟前
0基础CUDA炼丹、增加断点保存,从零开始训练自己的AI大模型 87owo/EasyGPT Python CUDA
开发语言·人工智能·python
枫叶林FYL36 分钟前
第 7 章 感知不确定性估计
人工智能·机器学习
沪漂阿龙39 分钟前
从感知机到GPT:一个1957年的“神经元”如何引爆2026年的AI革命?
人工智能·gpt·机器学习