转置卷积(Transposed Convolution)的简单理解运用

转置卷积(也叫反卷积、上采样卷积)是卷积神经网络中常用的操作,尤其在生成模型(如生成对抗网络、U-Net)中用于增加特征图的空间维度。

简单地说,转置卷积是通过插值和卷积操作将较小的输入张量"放大",生成一个更大的输出张量。

输出尺寸计算公式:

  • H_inW_in 是输入特征图的高和宽。
  • K_hK_w 是卷积核的高和宽。
  • S 是步幅。
  • P 是填充。
  • O_p 是输出填充。

|-------|--------------------------|----------------------------|
| 特性 | 转置卷积 (ConvTranspose2d) | Upsample / interpolate |
| 方法类型 | 学习型方法,通过训练卷积核 | 非学习型方法,基于插值规则 |
| 实现原理 | 插值 + 卷积 | 仅插值,常见插值方法包括最近邻、双线性等 |
| 训练过程 | 卷积核是可训练的,网络通过学习来优化上采样的效果 | 不涉及训练,插值固定 |
| 输出的质量 | 生成更自然、更细致的上采样图像,适合生成任务 | 输出图像质量与插值方法有关,可能没有转置卷积细致 |
| 计算速度 | 较慢,涉及卷积操作和反向传播 | 非常快,直接通过插值进行上采样 |
| 应用场景 | GAN、U-Net、图像生成等生成任务 | 图像放大、简单的上采样任务 |

实例:

python 复制代码
import torch
import torch.nn as nn

# 转置卷积层,包含额外的输出填充
conv_transpose = nn.ConvTranspose2d(in_channels=1, out_channels=1, kernel_size=3, stride=2, padding=1, output_padding=1)

# 输入图像:1x1x4x4
input_tensor = torch.tensor([[[[1.0, 2.0, 3.0, 4.0],
                              [5.0, 6.0, 7.0, 8.0],
                              [9.0, 10.0, 11.0, 12.0],
                              [13.0, 14.0, 15.0, 16.0]]]], dtype=torch.float32)

# 应用转置卷积
output_tensor = conv_transpose(input_tensor)

# 输出张量的形状
print(f"Input shape: {input_tensor.shape}")
print(f"Output shape after ConvTranspose2d: {output_tensor.shape}")

输出:

Input shape: torch.Size([1, 1, 4, 4])

Output shape after ConvTranspose2d: torch.Size([1, 1, 8, 8])

深入理解原理:转置卷积(Transposed Convolution)-CSDN博客

视频讲解:

相关推荐
小雨下雨的雨7 小时前
ModelEngine的Aido智能体【娱乐生涯 AI 助手】升级计划——工作流编排精确制导AI应用
人工智能·ai·娱乐·智能体
Melody20507 小时前
mmcv的依赖安装教程
人工智能·深度学习
水如烟7 小时前
孤能子视角:“排序搜索“,以及当前人工智能策略––强关系与弱关系
人工智能
KG_LLM图谱增强大模型7 小时前
[150页最新PPT]深度解析大模型与知识图谱的融合范式,通往AGI的必由之路?
人工智能·大模型·知识图谱·agi
龙亘川7 小时前
AI 赋能智慧农业:核心技术、应用案例与学习路径全解析
人工智能·学习
过期的秋刀鱼!7 小时前
week3-机器学习-逻辑回归模型介绍和决策边界
人工智能·机器学习·逻辑回归
好奇龙猫7 小时前
【AI学习-comfyUI学习-第二十一-LMSD线段预处理器(建筑概念设计图)-各个部分学习】
人工智能·学习
启途AI7 小时前
实测国内支持Nano Banana pro的ai工具,解锁PPT可编辑新体验!
人工智能·powerpoint·ppt
WitsMakeMen7 小时前
大语言模型要用分组注意力机制GQA
人工智能·语言模型·自然语言处理
Godspeed Zhao7 小时前
自动驾驶中的传感器技术84——Sensor Fusion(7)
人工智能·机器学习·自动驾驶