PyTorch nn.Conv2d 空洞卷积

torch.nn.Conv2d() 中 dilation 参数控制卷积核的间隔

dilation controls the spacing between the kernel points

  • 当 dilation=1 时, 表示卷积核没有额外的空白间距, 也就是标准卷积
  • 当 dilation>1 时, 表示空洞卷积(dilated convolution)

动画演示:

手动计算

以 2*2 的卷积核和 dilation=2 为例, 等效卷积核的大小为:

左上角区域卷积: 1 * 2 + 3 * 0 + 3 * 1 + 1 * 3 = 8, 卷积核中的空白间隔不参与运算, 当然也可以将其置为 0, 等效为 3 * 3 的卷积运算

结果:

使用 PyTorch 计算

python 复制代码
import torch
from torch import nn

data = [
    [1, 2, 3, 0],
    [0, 1, 2, 3],
    [3, 0, 1, 2],
    [2, 3, 0, 1]
]
# 单通道 4*4 图片
# minibatch=1
inp = torch.tensor(data).reshape(1, 1, 4, 4).to(torch.float32)

conv = nn.Conv2d(1, 1, kernel_size=2, dilation=2, bias=False)
conv.weight.data = torch.tensor(
    [[2, 0], [1, 3]]
).reshape(1, 1, 2, 2).to(torch.float32)

oup = conv(inp)
print(oup)

输出

python 复制代码
tensor([[[[ 8., 10.],
          [ 2.,  8.]]]], grad_fn=<ConvolutionBackward0>)

空洞卷积可以扩大感受野, 2*2 的卷积核, dilation 参数设为 2, 可以提取特征图中 3*3 的内容, 却只有 2*2 的卷积运算量

空洞卷积会丢失局部信息

相关推荐
輕華10 小时前
Transformer架构深度解析——从Attention到BERT的基石
深度学习·bert·transformer
葫三生10 小时前
《论三生原理》系列构建文理同构的认知体系?
人工智能·科技·深度学习·算法·机器学习·transformer
AC赳赳老秦14 小时前
可视化方案提效:用 OpenClaw 对接 XMind/ProcessOn,自动生成流程图、架构图、工作脑图
人工智能·深度学习·caffe·xmind·processon·deepseek·openclaw
隐层漫游者14 小时前
2026年了,你还分不清One-Hot、Word2Vec和Embedding?一文搞懂AI“读心术”的底层逻辑
深度学习
碧海银沙音频科技研究院14 小时前
windows的python程序安装方法
深度学习
数智工坊15 小时前
【扩散模型超分开山之作】:SR3扩散模型核心原理与全链路解析
论文阅读·人工智能·深度学习·transformer·迁移学习
LaughingZhu15 小时前
Product Hunt 每日热榜 | 2026-05-09
人工智能·经验分享·深度学习·神经网络·产品运营
码上掘金16 小时前
基于深度学习的行人计数与人群密度分析系统设计与实现
人工智能·深度学习
数智工坊18 小时前
基于CLIP隐空间的层级文本条件图像生成:unCLIP核心原理与全链路解析
论文阅读·人工智能·深度学习·transformer·迁移学习
雪回18 小时前
基于 Stable Diffusion-WebUI 实现 LandPPT 本地模型绘图配置指南(SDWebUI )
人工智能·深度学习·ai·ai作画·stable diffusion·ppt