钢铁异常分类 few-shot 问题 小陈读paper 钢铁2

很清爽的 abstract

给出链接 前面的背景意义 其实 是通用的

这里替大家 整理一吓吓

1 缺陷分类在钢铁表面缺陷检测中 有 意义。

2 大多数缺陷分类模型都是基于完全监督的学习,

这需要大量带有图像标签的训练数据。

在工业场景中收集有缺陷的图像是非常困难的。

图像注释也很昂贵且耗时

(然后还有一句小声逼逼

就是大家有没有发现如果读一个具体领域的paper 其实会越读越快

是不是因为很多的内容都会重复呀 所以 paper 有一些部分就会读的很快

然后根据自己paper的积累有一些地方也能加速 对不 )

如图1所示,在训练阶段使用来自基类的样本来训练一个强大的特征提取器。在测试阶段,我们将新类的样本作为输入,并在支持数据集中使用很少的标记图像来完成查询图像的分类。

这也是我唯一一篇看了abstract 和introduction 没头脑的 一篇哈哈哈哈哈 自己还是太菜了

吃饭去喽

FSC 的元学习方法主要有三种类型的。

首先,基于优化的方法[14]、[15]通过集成元测试过程中的微调过程来学习用少量新样本微调模型。该方法[16]是一种流行的元优化方法,它学习一组初始权重,这些权重适用于少量梯度步骤中的特定任务。

其次,基于度量的方法通过测量样本之间的相似信息来探索样本之间的本质差异,例如欧几里得距离[17]、图神经网络[18]或余弦相似度[19]。

第三,数据增强方法通过生成或幻觉新数据来增加训练过程中有限的数据。在[20]中,提出了一种自监督数据增强方法。首先,用标记样本训练模型,然后使用该模型为未标记样本生成伪标签以增强训练数据。

这工作的两个点

首先,考虑不同样本特征之间的相关信息,通过GE集成不同特征之间的相关信息。

其次,保证了不同类嵌入样本后分布的一致性,减少了新类上样本的分布偏差。

特征提取阶段、

In the term of data augmentation, we have chosen two self-supervised learning methods

GEDT阶段

训练样本的分布偏度可能会导致过拟合

减少分布偏度,校准分布可以得到更准确的估计。

Distribution Transformation (DT): The purpose of the DT is to ensure the consistency of the sample in Dnovel and reduce the distribution skewness.

DT 的目的是确保 Dnovel 中样本的一致性并减少分布偏度。

OPT阶段

当样本数量有限且每个类只有部分标记样本时,准确估计类的中心变得很重要。Hu等人[9]提出了期望极大值算法,通过迭代找到最大概率(MAP)来估计类中心。同时,也证明了通过最大后验概率估计类的中心等价于最小化[9]中的Wasserstein距离。

这一篇 是需要我 再读几遍吧 没读懂 虽然知道他想做什么事情。但是全程很朦

相关推荐
mys551817 分钟前
杨建允:企业应对AI搜索趋势的实操策略
人工智能·geo·ai搜索优化·ai引擎优化
小毅&Nora19 分钟前
【人工智能】【深度学习】 ⑦ 从零开始AI学习路径:从Python到大模型的实战指南
人工智能·深度学习·学习
牛阿大20 分钟前
关于前馈神经网络
人工智能·深度学习·神经网络
2的n次方_23 分钟前
从0到1打造专属数字人:魔珐星云SDK接入实战演示
人工智能·具身智能·魔珐星云
roman_日积跬步-终至千里26 分钟前
【模式识别与机器学习】机器学习练习题集 - 答案与解析
人工智能·机器学习
爱思德学术35 分钟前
中国计算机学会(CCF)推荐学术会议-C(人工智能):KSEM 2026
人工智能·知识图谱·知识工程·知识科学
玖日大大41 分钟前
英伟达 AI 芯片:架构演进与智能时代的算力基石
人工智能·架构
ekprada1 小时前
DAY 30 模块和库的导入
机器学习
中国云报1 小时前
从单一算力到融合基础设施:中国电子云重构AI时代算力版图
人工智能·重构
一点 内容1 小时前
用户体验与商业化的两难:Chatbots的广告承载困境分析
人工智能·经验分享