深度学习之 RefineNet

网络结构:

RefineNet block的作用就是把不同resolution level的feature map进行融合。网络结构如下:

最左边一栏就是FCN的encoder部分(文中是用的ResNet),先把pretrained ResNet按feature map的分辨率分成四个ResNet blocks,然后向右把四个blocks分别作为4个path通过RefineNet block进行融合refine,最后得到一个refined feature map(接softmax再双线性插值输出)。

注意除了RefineNet-4,所有的RefineNet block都是二输入的,用于融合不同level做refine,而单输入的RefineNet-4可以看作是先对ResNet的一个task adaptation。

RefineNet Block

接下来仔细看一下RefineNet block,可以看到主要组成部分是Residual convolution unit, Multi-resolution fusion, Chained residual pooling, Output convolutions. 切记这个block作用是融合多个level的feature map输出单个level的feature map,但具体的实现应该是和输入个数、shape无关的。

Residual convolution unit就是普通的去除了BN的residual unit;

Multi-resolution fusion是先对多输入的feature map都用一个卷积层进行adaptation(都化到最小的feature map的shape),再上采样再做element-wise的相加。注意如果是像RefineNet-4那样的单输入block这一部分就直接pass了;

Chained residual pooling中的ReLU对接下来池化的有效性很重要,还可以使模型对学习率的变化没这么敏感。这个链式结构能从很大范围区域上获取背景context。另外,这个结构中大量使用了identity mapping这样的连接,无论长距离或者短距离的,这样的结构允许梯度从一个block直接向其他任一block传播。

Output convolutions就是输出前再加一个RCU。

相关推荐
liulanba几秒前
机器学习评估指标详解 - 入门篇
人工智能·机器学习
wenzhangli7几秒前
2025智能家居创新大会:AI热潮下的冷思考,机遇窗口正在收窄
人工智能
Godspeed Zhao2 分钟前
自动驾驶中的传感器技术80——Sensor Fusion(3)
人工智能·机器学习·自动驾驶
Niuguangshuo5 分钟前
渐进式GAN (ProGAN):高分辨率图像生成的革命
人工智能·机器学习·生成对抗网络
张哈大5 分钟前
免费薅国产旗舰 LLM!GLM-4.7+MiniMax-M2.1
人工智能·python
wheeldown5 分钟前
AI Ping:大模型时代的“性能罗盘”——免费新上线GLM-4.7 与 MiniMax M2.1 实测
人工智能
大刘讲IT6 分钟前
精准检索-数据交互-专业交付:2026企业AI落地的三维价值重构
人工智能·程序人生·重构·交互·创业创新·制造
后端小张6 分钟前
【AI 学习】深度解析Transformer核心:注意力机制的原理、实现与应用
人工智能·深度学习·学习·机器学习·自然语言处理·数据挖掘·transformer
upper20207 分钟前
图数据挖掘
人工智能·数据挖掘
Wang201220137 分钟前
AI 相关的算法;架构等专有名称总结和介绍
人工智能·算法·架构