DCGAN 使用指南:将卷积神经网络和对抗网络结合,适用于生成小尺寸的图像

DCGAN 使用指南:将卷积神经网络和对抗网络结合


论文地址:https://arxiv.org/abs/1511.06434

项目代码:https://github.com/tensorlayer/DCGAN.git

DCGAN 适用于生成小尺寸的图像,并且具有简单易用的优势

StyleGAN 适用于生成高分辨率、高质量的图像,并且具有对风格的精细控制能力。

具体选择哪个方法取决于应用需求和数据的特点。

网络结构

如上图,生成器的输入是一个 100 维的噪声向量。

再将100维向量变成 4*4*1024 的张量,将原始的一维数据扩展到更高维度,以便能够利用卷积、池化、全连接等操作进行计算和学习。

可理解为将原始数据映射到一个 4*4 的二维空间,并在每个位置上用 1024 个通道表示特征。

4*4*1024 的张量增大为 8*8*512 张量,是反卷积操作。

  • 卷积操作用于从输入数据中提取特征,参数共享,输出尺寸减小。卷积操作通常导致尺寸的减小。

  • 反卷积操作用于将低维特征图恢复到原始输入尺寸,参数共享(在逆卷积过程中对输入的重复采样),反卷积操作通常导致尺寸的增大。

经过 4 个反卷积层,每次分辨率都提升 2 倍,最终得到 64*64*3

判别器:把生成的图像送入,输出一个概率。

把图像不断降低 2 倍,最后变成 4*4*512,是生成器的反向。

细节设计

  1. 去除全连接层,使用步长卷积代替池化

    去除全连接层减少了参数量并保留了空间信息,而使用步长卷积避免了信息丢失并提取更好的特征,提升了 DCGAN 的性能和生成图像质量。

  2. 生成器输出层使用tanh,其他层使用ReLU

    使用tanh激活函数作为生成器输出层的选择是为了限制生成图像的范围,使其与真实图像的像素范围更接近。

    但在其他层中使用ReLU等非饱和激活函数可以避免梯度消失问题,并提供更大的表达能力,以更好地学习数据分布。

  3. 判别器输出层使用sigmoid激活函数的好处,其他层使用leaky ReLU激活函数

    使用sigmoid激活函数的原因是将判别器的输出转换为概率值[0,1],方便进行真假分类。

    其他层使用Leaky ReLU激活函数是为了克服ReLU的一些限制,提供更好的梯度传播和表达能力。

  4. 看上图,卷积层都使用 Batch Normalization,生成器输出层、判别器输入层为没有使用

    生成器输出层和判别器输入层通常不使用批量归一化,以保持生成样本的多样性、真实性和判别器的性能。

    其他层使用批量归一化是为了加速网络的收敛速度、防止梯度消失或爆炸、提高泛化能力,并具有一定的正则化效果。

相关推荐
春末的南方城市32 分钟前
FLUX的ID保持项目也来了! 字节开源PuLID-FLUX-v0.9.0,开启一致性风格写真新纪元!
人工智能·计算机视觉·stable diffusion·aigc·图像生成
zmjia11133 分钟前
AI大语言模型进阶应用及模型优化、本地化部署、从0-1搭建、智能体构建技术
人工智能·语言模型·自然语言处理
IPFoxy66639 分钟前
探索路由器静态IP的获取方式
网络·智能路由器
jndingxin1 小时前
OpenCV视频I/O(14)创建和写入视频文件的类:VideoWriter介绍
人工智能·opencv·音视频
menge23331 小时前
VLAN:虚拟局域网
网络·智能路由器
AI完全体1 小时前
【AI知识点】偏差-方差权衡(Bias-Variance Tradeoff)
人工智能·深度学习·神经网络·机器学习·过拟合·模型复杂度·偏差-方差
GZ_TOGOGO1 小时前
【2024最新】华为HCIE认证考试流程
大数据·人工智能·网络协议·网络安全·华为
sp_fyf_20241 小时前
计算机前沿技术-人工智能算法-大语言模型-最新研究进展-2024-10-02
人工智能·神经网络·算法·计算机视觉·语言模型·自然语言处理·数据挖掘
新缸中之脑1 小时前
Ollama 运行视觉语言模型LLaVA
人工智能·语言模型·自然语言处理
ZachOn1y2 小时前
计算机网络:计算机网络概述 —— 初识计算机网络
网络·计算机网络·知识点汇总·考研必备