如何计算卷积神经网络每一层的参数数量和特征图大小?

如何计算卷积神经网络每一层的参数数量和特征图大小?

在学习卷积神经网络的过程中,对每一层的参数数量和特征图的计算,一直有些疑惑。主要是必须区分一下模型中每一层的参数和特征图大小是两个概念。

下面通过一个具体的例子来进行解释。

python 复制代码
import torch
import torch.nn as nn

class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.conv1 = nn.Conv2d(3, 16, kernel_size=3, padding=1)
        self.act1 = nn.Tanh()
        self.pool1 = nn.MaxPool2d(2)
        self.conv2 = nn.Conv2d(16, 8, kernel_size=3, padding=1)
        self.act2 = nn.Tanh()
        self.pool2 = nn.MaxPool2d(2)
        self.fc1 = nn.Linear(8 * 8 * 8, 32)
        self.act3 = nn.Tanh()
        self.fc2 = nn.Linear(32, 2)

    def forward(self, x):
        x = self.pool1(self.act1(self.conv1(x)))
        x = self.pool2(self.act2(self.conv2(x)))
        x = x.view(-1, 8 * 8 * 8)
        x = self.act3(self.fc1(x))
        x = self.fc2(x)
        return x

下面我们将详细分析代码中每一层的参数数量和特征图大小。假设输入图像的尺寸为 [3, 32, 32](即通道数为 3,高度和宽度均为 32)。

各层分析

1. 第一层卷积层 conv1
python 复制代码
self.conv1 = nn.Conv2d(3, 16, kernel_size=3, padding=1)
  • 参数数量计算
    对于卷积层 nn.Conv2d(in_channels, out_channels, kernel_size, padding),参数数量的计算公式为 (kernel_size * kernel_size * in_channels + 1) * out_channels。这里 in_channels = 3out_channels = 16kernel_size = 3
    所以参数数量为 (3 * 3 * 3 + 1) * 16 = (27 + 1) * 16 = 28 * 16 = 448
  • 特征图大小计算
2. 第一层激活函数层 act1
python 复制代码
self.act1 = nn.Tanh()
  • 参数数量:激活函数层没有可学习的参数,所以参数数量为 0。
  • 特征图大小 :激活函数不改变特征图的尺寸,因此特征图大小仍为 [16, 32, 32]
3. 第一层池化层 pool1
python 复制代码
self.pool1 = nn.MaxPool2d(2)
  • 参数数量:池化层没有可学习的参数,参数数量为 0。
  • 特征图大小计算
4. 第二层卷积层 conv2
python 复制代码
self.conv2 = nn.Conv2d(16, 8, kernel_size=3, padding=1)
  • 参数数量计算
    依据卷积层参数计算公式,这里 in_channels = 16out_channels = 8kernel_size = 3
    所以参数数量为 (3 * 3 * 16 + 1) * 8 = (144 + 1) * 8 = 145 * 8 = 1160
  • 特征图大小计算
5. 第二层激活函数层 act2
python 复制代码
self.act2 = nn.Tanh()
  • 参数数量:0。
  • 特征图大小[8, 16, 16]
6. 第二层池化层 pool2
python 复制代码
self.pool2 = nn.MaxPool2d(2)
  • 参数数量:0。
  • 特征图大小计算
7. 第一层全连接层 fc1
python 复制代码
self.fc1 = nn.Linear(8 * 8 * 8, 32)
  • 参数数量计算
    对于全连接层 nn.Linear(in_features, out_features),参数数量的计算公式为 (in_features + 1) * out_features。这里 in_features = 8 * 8 * 8 = 512out_features = 32
    所以参数数量为 (512 + 1) * 32 = 513 * 32 = 16416
  • 特征图大小 :全连接层将输入展平为一维向量,这里输入是 8 * 8 * 8 个元素的一维向量,输出是 32 个元素的一维向量,可认为特征图大小变为 [32]
8. 第三层激活函数层 act3
python 复制代码
self.act3 = nn.Tanh()
  • 参数数量:0。
  • 特征图大小[32]
9. 第二层全连接层 fc2
python 复制代码
self.fc2 = nn.Linear(32, 2)
  • 参数数量计算
    依据全连接层参数计算公式,in_features = 32out_features = 2
    所以参数数量为 (32 + 1) * 2 = 33 * 2 = 66
  • 特征图大小 :输出是 2 个元素的一维向量,特征图大小为 [2]

总结

层名 参数数量 特征图大小(输入/输出)
conv1 448 [3, 32, 32] -> [16, 32, 32]
act1 0 [16, 32, 32] -> [16, 32, 32]
pool1 0 [16, 32, 32] -> [16, 16, 16]
conv2 1160 [16, 16, 16] -> [8, 16, 16]
act2 0 [8, 16, 16] -> [8, 16, 16]
pool2 0 [8, 16, 16] -> [8, 8, 8]
fc1 16416 [8 * 8 * 8] -> [32]
act3 0 [32] -> [32]
fc2 66 [32] -> [2]
相关推荐
小瑞瑞acd3 小时前
【小瑞瑞精讲】卷积神经网络(CNN):从入门到精通,计算机如何“看”懂世界?
人工智能·python·深度学习·神经网络·机器学习
CoderJia程序员甲3 小时前
GitHub 热榜项目 - 日榜(2026-02-06)
人工智能·ai·大模型·github·ai教程
wukangjupingbb3 小时前
AI多模态技术在创新药研发中的结合路径、机制及挑战
人工智能
CoderIsArt4 小时前
三大主流智能体框架解析
人工智能
民乐团扒谱机4 小时前
【微实验】机器学习之集成学习 GBDT和XGBoost 附 matlab仿真代码 复制即可运行
人工智能·机器学习·matlab·集成学习·xgboost·gbdt·梯度提升树
Coder_Boy_4 小时前
Deeplearning4j+ Spring Boot 电商用户复购预测案例中相关概念
java·人工智能·spring boot·后端·spring
芷栀夏4 小时前
CANN ops-math:揭秘异构计算架构下数学算子的低延迟高吞吐优化逻辑
人工智能·深度学习·神经网络·cann
L543414464 小时前
告别代码堆砌匠厂架构让你的系统吞吐量翻倍提升
大数据·人工智能·架构·自动化·rpa
孤狼warrior4 小时前
YOLO目标检测 一千字解析yolo最初的摸样 模型下载,数据集构建及模型训练代码
人工智能·python·深度学习·算法·yolo·目标检测·目标跟踪
凯子坚持 c4 小时前
构建企业级 AI 工厂:基于 CANN `cann-mlops-suite` 的端到端 MLOps 实战
人工智能