卷积层的输出

卷积层的输出

flyfish

在卷积神经网络中,卷积层的输出尺寸计算主要依赖于输入尺寸、卷积核尺寸、步幅(stride)和填充(padding)。

经典的卷积神经网络模型 - AlexNet

标准卷积

以AlexNet第一个卷积层作为说明

py 复制代码
import torch
import torch.nn as nn

class AlexNet(nn.Module):
    def __init__(self, num_classes=1000):
        super(AlexNet, self).__init__()
        self.features = nn.Sequential(
            nn.Conv2d(3, 64, kernel_size=11, stride=4, padding=2),
            ......

nn.Conv2d(3, 64, kernel_size=11, stride=4, padding=2)

  • 64核 :意味着卷积层有64个不同的卷积核,每个核都会生成一个特征图(feature map)。所以输出的深度是64。

  • 输出尺寸 :输出特征图的高度和宽度可以用以下公式计算:
    Output Size = ⌊ Input Size − Kernel Size + 2 × Padding Stride ⌋ + 1 \text{Output Size} = \left\lfloor \frac{\text{Input Size} - \text{Kernel Size} + 2 \times \text{Padding}}{\text{Stride}} \right\rfloor + 1 Output Size=⌊StrideInput Size−Kernel Size+2×Padding⌋+1

    现在,我们应用这个公式来计算 AlexNet 模型中第一卷积层的输出尺寸。

输入数据

原始图片: 3 × 224 × 224 3 \times 224 \times 224 3×224×224 (3个通道,每个通道的大小为224x224)

卷积层 1

  • 卷积核数量(输出通道数):64

  • 卷积核尺寸: 11 × 11 11 \times 11 11×11

  • 步幅(stride):4

  • 填充(padding):2

计算输出尺寸

我们需要计算输出特征图的宽度和高度:
Output Height = ⌊ 224 − 11 + 2 × 2 4 ⌋ + 1 = ⌊ 224 − 11 + 4 4 ⌋ + 1 = ⌊ 217 4 ⌋ + 1 = 54 + 1 = 55 \text{Output Height} = \left\lfloor \frac{224 - 11 + 2 \times 2}{4} \right\rfloor + 1 = \left\lfloor \frac{224 - 11 + 4}{4} \right\rfloor + 1 = \left\lfloor \frac{217}{4} \right\rfloor + 1 = 54 + 1 = 55 Output Height=⌊4224−11+2×2⌋+1=⌊4224−11+4⌋+1=⌊4217⌋+1=54+1=55
Output Width = ⌊ 224 − 11 + 2 × 2 4 ⌋ + 1 = ⌊ 224 − 11 + 4 4 ⌋ + 1 = ⌊ 217 4 ⌋ + 1 = 54 + 1 = 55 \text{Output Width} = \left\lfloor \frac{224 - 11 + 2 \times 2}{4} \right\rfloor + 1 = \left\lfloor \frac{224 - 11 + 4}{4} \right\rfloor + 1 = \left\lfloor \frac{217}{4} \right\rfloor + 1 = 54 + 1 = 55 Output Width=⌊4224−11+2×2⌋+1=⌊4224−11+4⌋+1=⌊4217⌋+1=54+1=55

输出尺寸

所以,卷积层1的输出特征图尺寸为: 64 × 55 × 55 64 \times 55 \times 55 64×55×55(64个特征图,每个特征图的大小为55x55)。

卷积核的数量(filters)就是输出通道数(output channels)。在卷积神经网络中,每个卷积核会生成一个特征图,这些特征图共同组成了输出张量的深度(通道数)。

  • 输入通道数(input channels) :输入数据的通道数。例如,一个RGB图像有3个通道(红、绿、蓝)。

  • 输出通道数(output channels) :卷积层输出的通道数,也就是卷积核的数量。每个卷积核会生成一个特征图,所有特征图的数量就是输出通道数。

py 复制代码
import torch
import torch.nn as nn

# 定义输入张量,形状为 (batch_size, channels, height, width)
input_data = torch.randn(1, 3, 224, 224)

# 定义一个卷积层
# 输入通道数 3,输出通道数 64,卷积核大小 11x11,步幅 4,填充 2
conv_layer = nn.Conv2d(in_channels=3, out_channels=64, kernel_size=11, stride=4, padding=2)

# 计算卷积层的输出
output = conv_layer(input_data)

print(f"输入张量的形状: {input_data.shape}")
print(f"输出张量的形状: {output.shape}")
输入张量的形状: torch.Size([1, 3, 224, 224])
输出张量的形状: torch.Size([1, 64, 55, 55])

有了dilation参数就是扩张卷积(dilated convolution)或者 膨胀卷积

py 复制代码
import torch
import torch.nn as nn

# 定义输入张量,形状为 (batch_size, channels, height, width)
input_data = torch.randn(1, 3, 224, 224)

# 定义一个卷积层,扩张率为2
# 输入通道数 3,输出通道数 64,卷积核大小 11x11,步幅 4,填充 2,扩张率 2
conv_layer = nn.Conv2d(in_channels=3, out_channels=64, kernel_size=11, stride=4, padding=2, dilation=2)

# 计算卷积层的输出
output = conv_layer(input_data)

print(f"输入张量的形状: {input_data.shape}")
print(f"输出张量的形状: {output.shape}")
输入张量的形状: torch.Size([1, 3, 224, 224])
输出张量的形状: torch.Size([1, 64, 52, 52])

计算输出形状:
H out = ⌊ H in + 2 P − D × ( K − 1 ) − 1 S ⌋ + 1 H_{\text{out}} = \left\lfloor \frac{H_{\text{in}} + 2P - D \times (K - 1) - 1}{S} \right\rfloor + 1 Hout=⌊SHin+2P−D×(K−1)−1⌋+1
W out = ⌊ W in + 2 P − D × ( K − 1 ) − 1 S ⌋ + 1 W_{\text{out}} = \left\lfloor \frac{W_{\text{in}} + 2P - D \times (K - 1) - 1}{S} \right\rfloor + 1 Wout=⌊SWin+2P−D×(K−1)−1⌋+1

给定参数

  • 输入尺寸 H in = 224 H_{\text{in}} = 224 Hin=224, W in = 224 W_{\text{in}} = 224 Win=224

  • 卷积核大小 K = 11 K = 11 K=11

  • 步幅 S = 4 S = 4 S=4

  • 填充 P = 2 P = 2 P=2

  • 扩张率 D = 2 D = 2 D=2

计算感受野

感受野的大小指的是在图像中一个特定位置的输出单元所覆盖的输入区域的大小。

扩张卷积的实际感受野为:
Effective Kernel Size = D × ( K − 1 ) + 1 = 2 × ( 11 − 1 ) + 1 = 21 \text{Effective Kernel Size} = D \times (K - 1) + 1 = 2 \times (11 - 1) + 1 = 21 Effective Kernel Size=D×(K−1)+1=2×(11−1)+1=21

计算输出高度和宽度

使用公式计算输出尺寸:
H out = ⌊ 224 + 2 × 2 − 21 4 ⌋ + 1 H_{\text{out}} = \left\lfloor \frac{224 + 2 \times 2 - 21}{4} \right\rfloor + 1 Hout=⌊4224+2×2−21⌋+1
= ⌊ 224 + 4 − 21 4 ⌋ + 1 = \left\lfloor \frac{224 + 4 - 21}{4} \right\rfloor + 1 =⌊4224+4−21⌋+1
= ⌊ 207 4 ⌋ + 1 = \left\lfloor \frac{207}{4} \right\rfloor + 1 =⌊4207⌋+1
= ⌊ 51.75 ⌋ + 1 = \left\lfloor 51.75 \right\rfloor + 1 =⌊51.75⌋+1
= 51 + 1 = 51 + 1 =51+1
= 52 = 52 =52

感受野是卷积核在输入图像中覆盖的区域。 21 × 21 21 \times 21 21×21是感受野的大小 。 52 × 52 52 \times 52 52×52 是卷积操作之后输出特征图(feature map)的大小。

卷积的扩张率

扩张率 D D D 决定了卷积核元素之间插入零的数量。对于标准卷积(即扩张率 D = 1 D = 1 D=1),卷积核的元素是连续的,没有插入零。例如,一个 3 × 3 3 \times 3 3×3 的标准卷积核如下:

css 复制代码
| a | b | c |
| d | e | f |
| g | h | i |

对于扩张率 D = 2 D = 2 D=2,在卷积核的每两个元素之间插入一个零:

css 复制代码
| a | 0 | b | 0 | c |
| 0 | 0 | 0 | 0 | 0 |
| d | 0 | e | 0 | f |
| 0 | 0 | 0 | 0 | 0 |
| g | 0 | h | 0 | i |

可以看到,卷积核元素之间插入了 D − 1 = 1 D - 1 = 1 D−1=1 个零。

感受野的扩展

扩张卷积的感受野计算公式为 D × ( K − 1 ) + 1 D \times (K - 1) + 1 D×(K−1)+1,其中 K K K 是卷积核的尺寸。这个公式表示扩张卷积的实际感受野:

  • D D D :扩张率(dilation rate)。它决定了卷积核元素之间的距离。

  • K K K :卷积核的尺寸(即卷积核的边长,如果是 K × K K \times K K×K)。

  • K − 1 K - 1 K−1 :表示卷积核中元素之间的间距数量。对于 K K K 长度的卷积核,有 K − 1 K - 1 K−1 个间距。

  • D × ( K − 1 ) D \times (K - 1) D×(K−1) :这是扩展后的卷积核覆盖的实际范围(即感受野)。

  • 最后的 + 1 +1 +1 :确保感受野包括卷积核的边界。假设 K = 3 K = 3 K=3,则卷积核有3个元素,需要考虑这3个元素的间距。公式 D × ( K − 1 ) D \times (K - 1) D×(K−1)计算的是卷积核内部元素之间的距离,但这并不包括卷积核的边界元素。因此,感受野需要 +1 来包括卷积核的边界。

例如,对于 3 × 3 3 \times 3 3×3 的卷积核和扩张率 D = 2 D = 2 D=2:

css 复制代码
| a | 0 | b | 0 | c |
| 0 | 0 | 0 | 0 | 0 |
| d | 0 | e | 0 | f |
| 0 | 0 | 0 | 0 | 0 |
| g | 0 | h | 0 | i |

这个扩张卷积的感受野是:
2 × ( 3 − 1 ) + 1 = 2 × 2 + 1 = 5 2 \times (3 - 1) + 1 = 2 \times 2 + 1 = 5 2×(3−1)+1=2×2+1=5感受野从 3 × 3 3 \times 3 3×3 扩展到 5 × 5 5 \times 5 5×5。

相关推荐
wangyue49 分钟前
c# 深度模型入门
深度学习
川石课堂软件测试22 分钟前
性能测试|docker容器下搭建JMeter+Grafana+Influxdb监控可视化平台
运维·javascript·深度学习·jmeter·docker·容器·grafana
985小水博一枚呀30 分钟前
【深度学习滑坡制图|论文解读3】基于融合CNN-Transformer网络和深度迁移学习的遥感影像滑坡制图方法
人工智能·深度学习·神经网络·cnn·transformer
985小水博一枚呀35 分钟前
【深度学习滑坡制图|论文解读2】基于融合CNN-Transformer网络和深度迁移学习的遥感影像滑坡制图方法
人工智能·深度学习·神经网络·cnn·transformer·迁移学习
数据与后端架构提升之路44 分钟前
从神经元到神经网络:深度学习的进化之旅
人工智能·神经网络·学习
深度学习实战训练营2 小时前
基于CNN-RNN的影像报告生成
人工智能·深度学习
浮生如梦_4 小时前
Halcon基于laws纹理特征的SVM分类
图像处理·人工智能·算法·支持向量机·计算机视觉·分类·视觉检测
深度学习lover4 小时前
<项目代码>YOLOv8 苹果腐烂识别<目标检测>
人工智能·python·yolo·目标检测·计算机视觉·苹果腐烂识别
孙同学要努力9 小时前
全连接神经网络案例——手写数字识别
人工智能·深度学习·神经网络
Eric.Lee20219 小时前
yolo v5 开源项目
人工智能·yolo·目标检测·计算机视觉