Boundry attention: 泛化能力很强的边缘检测模块

原文链接:Boundary attention:: Learning to Find Faint Boundaries at Any Resolution

本文提出的模型泛化性好,即使只在合成的图案简单的图片上训练,在复杂的真实图上做检测也能得到较好的边界。

细节部分:

不同于viT把图片切成小patch,然后映射为token,而是每个像素都有一个token。

(文章说的dense,stride-1的token)

每个像素的token,设计为表达局部几何结构的特征空间,表征以自己为中心的正方形区域内的局部结构。

提出bottleneck:将图像的token映射到低维空间,这里设计这个空间为junction space

junction space:

用一些参数,代表了一些可能的几何边缘结构。比如什么都没有,边,角,T结,Y结。(这些几何结构够了吗?能不能通过kmeans聚类得到最佳的参数空间大小?)

这些参数3.1 包括点位置u=(u,v)点是相对patch中的中心像素的;线的方向theta;线顺时针旋转产生另外两条线,夹角依次为o1、2、3(因为最多产生三条线,所以最多表达三部分,比如T、Y结)。

⁃ 这些参数表达的几何结构种类是有限的,每一种文中叫做

wedge。

f-n代表输入图像

s-nj代表像素x在像素n的领域内,且属于第j个wedge,就=1.(j能离散?)(具体函数在附录,代表)

d-n代表像素x离最近的边界的欧式距离。这里的边界就是jspace中的线。

每个像素的region的大小,设计成自适应的。(这里能用那个blur-scale改,合理吗)用函数window function:w-n表示。这个函数定义为一个凸函数:分三个级别衡量size(D=3,9,17)。如果距离中心像素的大小小于某个size,就加上对应的系数。

⁃ 大小由regionsize决定,同时,结果又决定了region size

boundry attention是neighborhood corss-attetnion:cross-attention的一种变体。

结构:先把token用训练好的线性映射patch FFN变到junction space。

gather operator:对patch进行计算wedge feature。新的fkj=在图f上,patch包括的像素值,每个像素的window function作为权,f作为值的加权平均。

⁃ input:feature图、window function图p、wedge图g。

⁃ output:更新的feature

slice operator:对每个像素进行计算。算包含他的所有region的某个值的mean,variance。这个值有两个:distance map和wedge feature。

在这里对每个patchk要进行加权计算,对他有贡献的是包含这个patch中心点n的所有patches,不只他自己。

⁃ input:distance map d,window function图p,wedge图g;feature map一样的

⁃ output:distance map d的均值、方差;feature map的均值、方差。

这两个operator得到distance map、feature的方差。

期望输出:

期望重叠区(每个pixel又一个region)的边界是一样的。所以让上面得到的两个输出方差很小。

对上面distance map和wedge feature经过attention输出的均值的:

⁃ 像素n的feature mean是对包含他的领域中每个wedge feature的权重求和。(attention是对邻居的不同的注意力)

图片解释:

⁃ 第二行的图,对应选取的区域,颜色都一样,所以他的第一个window function很大?对应window中的边缘(第二张图)是快到花瓣边缘了。

整个网络要迭代g,p表示。迭代window function的系数和junction 空间的表示。为什么不能直接计算?因为直接计算太难了?不是,因为根本无法计算,只能让网络迭代得到最好的g(关注该范围的参数是多少)最好的p(关注多大的范围),以及考虑邻居信息的feature

网络输入像素,经过MLPmix输出hidden state。

然后attention8次迭代g和p(wedge feature和window size参数):

每个boundry attention:

使用跳跃连接;

把hidden state copy两份,一份+window token(pai),林一份+global feature f。分别经过MLP。

window tkoen作为Q,global feature作为KV。

window token(size, 1):前面提到过每个pixel n都作为query。

global feature分割为11大小的patch,两者做cross-ttetnion:每个像素n(query)的考虑了邻居的特征的新特征是什么?

还给global feature的patch加了positional encoding。

attention输出的hidden state得最后8维是window token。他们两个经过线性层,映射回junciton space的参数表示g。得到的g可以进行gather和slice opartor。

训练过程:

一共有一个MLPmix,两个boundry attention。总共进行8次迭代。

第一阶段迭代4次:线MLP-mixer和第一个attention一起训练;在第3,4迭代使用loss

第二阶段在迭代4次:然后再加第二个attention进行端到端的训练。在第7,8迭代使用loss

最后一次迭代的loss比前几次迭代的都权重大。

(一开始输入-MLPmixer,attention-再返回给attention-在返回给attention(此时计算loss1)-在返回给attention(此时计算loss2),加上第二个attetnion,返回头部端到端输出-在返回头部端到端输出-在返回头部端到端输出(此时计算loss3)-在返回头部端到端输出(此时计算loss4),最后loss应该是loss1-4的和)

(可能因为全部端到端训练,太难了?)

loss12是监督loss:包括feature和distance map的GT(这个他怎么得到的?)

每个loss包括像素级和patch级别的feature loss和distance map loss。让输入接近GT。还有他们对应的方差loss,让其尽量为0.

实验细节:

合成有15-20种几何图形的图片,变成灰度图,参见裁剪25*125大小,作为输入。

数据集10^5,90%作为训练。

⁃ 给图片加noise,让网络实现得到和无噪声一样的feature map,distance map。

结果:

  1. 验证对噪声的抗干扰性能

和EDTRE、去噪的EDTRE对比

和类似原理但不是深度学习的filed of junction做对比。

2.	验证去噪检测时仍然存在的亚像素精度

在小image上检测,上采样放大边缘也很好。

3.	可视化hidden state,发现确实学到了junction space。而且直接对值进行差值,能得到连续的junction(可视化就是直接把hiddenstate值作为参数进行画?

4.	在真实图像上

没和其他网络比较对真实图像的检测,而是比较了加噪声后的表现。

5.	推理时间等等

补充材料:

  1. junction space

junction空间的几何表示,可以有M种,本文用的是M=3

参数空间有一些等价表示。

这里没看懂

Mjunction是更大的M'的子集(训练时还可以提高M试一试)

在Mjucntion参数空间中,能直接计算出central 方向和边界boundary方向

和filed of junction那篇在junction space上的比较:参数空间多了oemga,这样就不用限制fai的范围。

这个参数空间的表示允许线性插值

2.	训练数据

合成数据集Kaleidoshapes

3.	模型细节

输入3通道图像,每个像素映射为64维。

经过一个zero-padding处理(补充边界)。

然后MLPmix:两个neighbor mixing blocks:每个包括空间patch mixer和channelmixer。前者是用两个3*3空间卷积+GELU实现。

channelmixer是每个像素输入的MLP。

最后剪掉包含了原图之外信息的patches。

训练细节:

第一阶段

训练只用kal数据集的简化版(100*100大小,加了高斯噪声,)用等式9,10的loss。让网络学到有意义的hidden state gamma,避免jucntion的collapse。让网络关注边界一致性loss(方差loss-0),学习无边界patch。

数据存在不平衡:只有一部分有边界信息。所以加一个额外的空间importance mask给有边界的区域更多关注。(用过gaussian产生这个mask?)把mask以常数C加在loss上。

第二阶段:

加另一个block,用全部iamge和loss。

也用了空间importance mask

相关推荐
小陈phd5 天前
OpenCV(python)从入门到精通——运算操作
opencv·图像识别·cv·边缘检测
Eshin_Ye14 天前
transformer学习笔记-自注意力机制(1)
笔记·学习·transformer·attention·注意力机制
西西弗Sisyphus18 天前
视觉语言模型 Qwen2-VL
人工智能·深度学习·大模型·注意力机制
deephub19 天前
Hymba: 结合注意力头和SSM头的创新型语言模型方案
人工智能·深度学习·transformer·注意力机制
scdifsn21 天前
动手学深度学习10.5. 多头注意力-笔记&练习(PyTorch)
pytorch·笔记·深度学习·注意力机制·多头注意力
LinKouun25 天前
论文笔记 SliceGPT: Compress Large Language Models By Deleting Rows And Columns
论文阅读·人工智能·语言模型·transformer·attention·模型压缩·注意力机制
御宇w25 天前
(即插即用模块-Attention部分) 二十、(2021) GAA 门控轴向注意力
深度学习·计算机视觉·注意力机制
deephub1 个月前
优化注意力层提升 Transformer 模型效率:通过改进注意力机制降低机器学习成本
人工智能·深度学习·transformer·大语言模型·注意力机制
迪菲赫尔曼1 个月前
即插即用篇 | YOLOv11 引入高效的直方图Transformer模块 | 突破天气障碍:Histoformer引领高效图像修复新路径
人工智能·深度学习·yolo·目标检测·计算机视觉·transformer·注意力机制
scdifsn1 个月前
动手学深度学习10.1. 注意力提示-笔记&练习(PyTorch)
pytorch·笔记·深度学习·注意力机制·注意力提示