PyTorch中卷积层torch.nn.Conv2d

在 PyTorch 中,卷积层主要由 torch.nn.Conv1dtorch.nn.Conv2dtorch.nn.Conv3d 实现,分别对应一维、二维和三维卷积操作。以下是详细说明:

1. 二维卷积 (Conv2d) - 最常用

python 复制代码
import torch.nn as nn

# 基本参数
conv = nn.Conv2d(
    in_channels=3,    # 输入通道数 (如RGB图像为3)
    out_channels=16,  # 输出通道数/卷积核数量
    kernel_size=3,    # 卷积核大小 (可以是int或tuple, 如(3,3))
    stride=1,         # 步长 (默认1)
    padding=1,        # 边界填充 (默认0)
    dilation=1,       # 空洞卷积参数 (默认1)
    groups=1,         # 分组卷积参数 (默认1)
    bias=True         # 是否使用偏置 (默认True)
)
计算输出尺寸:

比如:高度

2. 使用示例

python 复制代码
import torch

# 输入张量 (batch_size=4, 通道=3, 高=32, 宽=32)
x = torch.randn(4, 3, 32, 32)

# 卷积层
conv = nn.Conv2d(3, 16, kernel_size=3, padding=1)
output = conv(x)
print(output.shape)  # torch.Size([4, 16, 32, 32])

3. 特殊卷积类型

(1) 空洞卷积 (Dilated Convolution)
python 复制代码
nn.Conv2d(3, 16, kernel_size=3, dilation=2)  # 扩大感受野
(2) 分组卷积 (Grouped Convolution)
python 复制代码
nn.Conv2d(16, 32, kernel_size=3, groups=4)  # 将输入/输出通道分为4组
(3) 深度可分离卷积 (Depthwise Separable)
python 复制代码
# 等价于 groups=in_channels
depthwise = nn.Conv2d(16, 16, kernel_size=3, groups=16)
pointwise = nn.Conv2d(16, 32, kernel_size=1)  # 1x1卷积

4. 一维和三维卷积

Conv1d (时序数据/文本)
python 复制代码
conv1d = nn.Conv1d(in_channels=256, out_channels=100, kernel_size=3)
# 输入形状: (batch, channels, sequence_length)
Conv3d (视频/体积数据)
python 复制代码
conv3d = nn.Conv3d(1, 32, kernel_size=(3,3,3))
# 输入形状: (batch, channels, depth, height, width)

5. 转置卷积 (反卷积)

python 复制代码
nn.ConvTranspose2d(16, 8, kernel_size=2, stride=2)  # 常用于上采样

6. 初始化权重

python 复制代码
# 常用初始化方法
nn.init.kaiming_normal_(conv.weight, mode='fan_out')
nn.init.constant_(conv.bias, 0.1)

7. 可视化卷积核

python 复制代码
import matplotlib.pyplot as plt

weights = conv.weight.detach().cpu()
plt.figure(figsize=(10,5))
for i in range(16):
    plt.subplot(4,4,i+1)
    plt.imshow(weights[i,0], cmap='gray')
plt.show()

8. 总结:

  1. 卷积核参数共享,大大减少参数量

  2. padding='same' 可保持输入输出尺寸相同 (PyTorch 1.9+)

  3. 通常配合 BatchNormReLU 使用

  4. 使用 print(conv) 可查看层结构

实际应用中,卷积层常与池化层交替使用构建CNN架构,如:

python 复制代码
self.conv_block = nn.Sequential(
    nn.Conv2d(3, 32, 3, padding=1),
    nn.BatchNorm2d(32),
    nn.ReLU(),
    nn.MaxPool2d(2)
)
相关推荐
Green1Leaves7 小时前
pytorch学习-9.多分类问题
人工智能·pytorch·学习
摸爬滚打李上进13 小时前
重生学AI第十六集:线性层nn.Linear
人工智能·pytorch·python·神经网络·机器学习
HuashuiMu花水木13 小时前
PyTorch笔记1----------Tensor(张量):基本概念、创建、属性、算数运算
人工智能·pytorch·笔记
喝过期的拉菲1 天前
如何使用 Pytorch Lightning 启用早停机制
pytorch·lightning·早停机制
kk爱闹1 天前
【挑战14天学完python和pytorch】- day01
android·pytorch·python
Yo_Becky1 天前
【PyTorch】PyTorch预训练模型缓存位置迁移,也可拓展应用于其他文件的迁移
人工智能·pytorch·经验分享·笔记·python·程序人生·其他
xinxiangwangzhi_1 天前
pytorch底层原理学习--PyTorch 架构梳理
人工智能·pytorch·架构
FF-Studio1 天前
【硬核数学 · LLM篇】3.1 Transformer之心:自注意力机制的线性代数解构《从零构建机器学习、深度学习到LLM的数学认知》
人工智能·pytorch·深度学习·线性代数·机器学习·数学建模·transformer
盼小辉丶2 天前
PyTorch实战(14)——条件生成对抗网络(conditional GAN,cGAN)
人工智能·pytorch·生成对抗网络
Gyoku Mint2 天前
深度学习×第4卷:Pytorch实战——她第一次用张量去拟合你的轨迹
人工智能·pytorch·python·深度学习·神经网络·算法·聚类