深度学习:转置卷积

什么是转置卷积(Transposed Convolution)

转置卷积,又称反卷积(Deconvolution)或上采样卷积(Upsampling Convolution),是一种卷积操作,通常用于生成式模型或图像处理任务中,以增加特征图的空间分辨率。转置卷积的目的是将低分辨率的特征图还原到较高分辨率,即进行空间上采样。

正常卷积操作回顾

在标准卷积操作中,卷积核在输入特征图上滑动,计算局部区域的加权和,从而生成输出特征图。假设我们有以下参数:

  • 输入特征图大小: ( H × W ) (H \times W ) (H×W)
  • 卷积核大小: ( K × K ) ( K \times K ) (K×K)
  • 步幅:( S )
  • 填充:( P )
输出特征图的大小为:

H o u t = H − K + 2 P S + 1 \] \[ H{out} = \\frac{H - K + 2P}{S} + 1 \] \[Hout=SH−K+2P+1

W o u t = W − K + 2 P S + 1 \] \[ W{out} = \\frac{W - K + 2P}{S} + 1 \] \[Wout=SW−K+2P+1

转置卷积的基本原理

转置卷积的操作可以被视为卷积的逆过程。其目的是将小的输入特征图扩展为更大的输出特征图。转置卷积通过插入零元素并使用卷积核计算来实现这一点。

转置卷积的计算步骤:

  • 插入零元素(Zero-Insertions):

    在输入特征图的元素之间插入零元素,增加特征图的尺寸。例如,假设步幅为 ( S ),在每个元素之间插入 ( S-1 ) 个零。

  • 填充(Padding):

    适当填充输入特征图,确保输出特征图具有预期的大小。通常填充策略与卷积核的大小和步幅相关。

  • 卷积操作:

    使用标准卷积操作在填充后的特征图上应用卷积核,生成输出特征图。

假设我们有以下参数:
  • 输入特征图大小: ( H i n × W i n ) ( H{in} \times W{in} ) (Hin×Win)
  • 卷积核大小: ( K × K ) ( K \times K ) (K×K)
  • 步幅:( S )
  • 填充:( P )

输出特征图的大小为:

H o u t = ( H i n − 1 ) × S − 2 P + K \] \[ H{out} = (H{in} - 1) \\times S - 2P + K \] \[Hout=(Hin−1)×S−2P+K

W o u t = ( W i n − 1 ) × S − 2 P + K \] \[ W{out} = (W{in} - 1) \\times S - 2P + K \] \[Wout=(Win−1)×S−2P+K

应用场景

转置卷积广泛应用于以下场景:

  • 生成对抗网络(GANs):在生成器中使用转置卷积将低维噪声向量转换为高维图像。
  • 图像超分辨率:从低分辨率图像重建高分辨率图像。
  • 语义分割:将特征图还原为输入图像的尺寸以生成像素级别的分类图。
通过转置卷积,我们可以有效地对图像进行空间上采样,实现不同的图像生成和重建任务。
相关推荐
叁两4 分钟前
“死了么”用户数翻800倍,估值近1亿,那我来做个“活着呢”!
前端·人工智能·产品
一瞬祈望7 分钟前
⭐ 深度学习入门体系(第 20 篇): 如何从 0 到 1 训练一个稳定、可复现的深度学习模型
人工智能·深度学习
lkbhua莱克瓦249 分钟前
RAG到RGA:生成式AI的范式演进
人工智能·llm·prompt·大语言模型·rag·rga
youcans_11 分钟前
【DeepSeek论文精读】17. 通过可扩展查找的条件记忆:大语言模型稀疏化的新维度
论文阅读·人工智能·语言模型·长短时记忆网络·稀疏
dagouaofei18 分钟前
AI 生成 2026 年工作计划 PPT,模板与结构能力对比
人工智能·python·powerpoint
燕双嘤28 分钟前
深度学习:激活函数,优化器
人工智能·深度学习
蜡笔小新..34 分钟前
从零学习 RL :初识强化学习
人工智能·强化学习·rl
m0_6038887136 分钟前
More Images, More Problems A Controlled Analysis of VLM Failure Modes
人工智能·算法·机器学习·ai·论文速览
ICscholar39 分钟前
ROC曲线解读
人工智能·机器学习
丝斯20111 小时前
AI学习笔记整理(44)——大规模预训练模型数据处理管道Pipeline
人工智能·笔记·学习