生成对抗网络(Generative adversarial network——GAN)

文章目录

  • [1. 前言](#1. 前言)
    • [1.1 判别器和生成器的作用?](#1.1 判别器和生成器的作用?)
    • [2.2 个人总结](#2.2 个人总结)
  • [2. 核心代码示例](#2. 核心代码示例)
    • [2.1 训练判别器网络](#2.1 训练判别器网络)
    • [2.2 训练生成器网络](#2.2 训练生成器网络)
  • 参考文章

1. 前言

生成对抗网络的原文:Generative Adversarial Nets,该论文的精读视频:生成对抗网络GAN开山之作论文精读,该论文解析相关的视频:生成对抗网络GAN原理解析。下面是自己对生成对抗网络的理解。

1.1 判别器和生成器的作用?

  1. 生成器(Generator)

(1)作用:生成器的主要任务是生成看起来"真实"的数据(假数据)。它从一个随机噪声向量(通常是高斯分布或均匀分布的随机数)作为输入,经过一系列变换后输出与目标数据分布相似的数据样本。

(2)工作机制:接收随机噪声 z 作为输入;将 z 映射到目标数据空间(例如图像、音频等),生成伪造数据 G(z);目标是让生成的数据尽可能"欺骗"判别器,使其无法区分生成的数据和真实数据。

  1. 判别器(Discriminator)

(1)作用:判别器是一个二分类器,用于判断输入数据是来自真实数据分布还是生成器生成的伪造数据。

(2)工作机制:接收真实数据 x 和生成数据 G(z) 作为输入;输出一个概率值(" 例如0表示"假",1表示"真" "),表示输入数据是真实数据的可能性;目标是尽可能准确地分辨出真实数据和伪造数据。

  1. 两者之间的关系

(1)对抗过程:生成器和判别器在训练过程中不断博弈。生成器试图生成更逼真的数据以欺骗判别器,而判别器则努力提高自己的辨别能力

(2)动态平衡:理想情况下,经过充分训练后,生成器能够生成几乎无法区分于真实数据的样本,而判别器对所有输入的判断概率接近 0.5(即无法分辨真假)。

  1. 真假数据的输入流程

2.2 个人总结

(1)对于生成器 G :随机噪声数据 z 通过生成器 G 得到 G(z) ,我们希望 G(z) 经过判别器 D 输出的概率 D[G(z)] 越大越好(预测概率 D[G(z)] ------> 1)。

(2)对于判别器 D :真实数据 x 通过判别器 D 输出概率 D(x) ,我们希望概率 D(x) 越大越好(预测概率 D(x) ------> 1);对于虚假数据 G(z) ,我们希望 G(z) 经过判别器 D 输出的概率 D[G(z)] 越小越好(预测概率 D[G(z)] ------> 0)。

2. 核心代码示例

python 复制代码
class Discriminator(nn.Module):
	# 判别器网络
	...

class Generator(nn.Module):
	# 生成器网络
	...

# 创建生成器,判别器对象
generator = Generator()
discriminator = Discriminator()

# 定义生成器,判别器对象相应的优化器
optimizer_G = torch.optim.Adam(generator.parameters(), lr=opt.lr, betas=(opt.b1, opt.b2))
optimizer_D = torch.optim.Adam(discriminator.parameters(), lr=opt.lr, betas=(opt.b1, opt.b2))

# 定义二分类的交叉熵损失
criterion = torch.nn.BCELoss()

2.1 训练判别器网络

  1. 定义真实数据的label为1,虚假数据的label为0
python 复制代码
real_label = Variable(torch.ones(imgs.size(0), 1)).cuda()  ## 定义真实的图片label为1
fake_label = Variable(torch.zeros(imgs.size(0), 1)).cuda()  ## 定义假的图片的label为0
  1. 计算真实数据的损失
python 复制代码
real_out = discriminator(real_img)  ## 将真实图片放入判别器中, 输出的值越接近1越好
loss_real_D = criterion(real_out, real_label)  ## 得到真实图片的loss
  1. 计算虚假数据的损失
python 复制代码
z = Variable(torch.randn(imgs.size(0), opt.latent_dim)).cuda()  ## 随机生成一些噪声, 大小为(128, 100)
fake_img = generator(z).detach()  ## 随机噪声放入生成网络中,生成一张假的图片。
fake_out = discriminator(fake_img)  ## 判别器判断假的图片, 输出的值越接近0越好
loss_fake_D = criterion(fake_out, fake_label)  ## 得到假的图片的loss
  1. 利用损失函数优化判别器网络
python 复制代码
loss_D = loss_real_D + loss_fake_D  ## 损失包括判真损失和判假损失
optimizer_D.zero_grad()  ## 在反向传播之前,先将梯度归0
loss_D.backward()  ## 将误差反向传播
optimizer_D.step()  ## 更新参数

2.2 训练生成器网络

  1. 定义虚假数据的label为1
python 复制代码
real_label = Variable(torch.ones(imgs.size(0), 1)).cuda()
  1. 计算生成器网络的损失
python 复制代码
z = Variable(torch.randn(imgs.size(0), opt.latent_dim)).cuda()  ## 得到随机噪声
fake_img = generator(z)  ## 随机噪声输入到生成器中,得到一副假的图片
output = discriminator(fake_img)  ## 经过判别器得到的结果
loss_G = criterion(output, real_label)  ## 得到的假的图片与真实的图片的label的loss
  1. 利用损失函数优化生成器网络
python 复制代码
optimizer_G.zero_grad()  ## 梯度归0
loss_G.backward()  ## 进行反向传播
optimizer_G.step()  ## step()一般用在反向传播后面,用于更新生成网络的参数

参考文章

生成对抗网络(GAN)
生成对抗网络------GAN原理与代码
GAN(生成对抗网络)的系统全面介绍(醍醐灌顶)
Pytorch生成对抗网络(GAN)官方入门教程

相关推荐
飞哥数智坊6 分钟前
AI协同研发探索:Claude Code 初试
人工智能
szxinmai主板定制专家9 分钟前
国产RK3568+FPGA以 ‌“实时控制+高精度采集+灵活扩展”‌ 为核心的解决方案
大数据·运维·网络·人工智能·fpga开发·机器人
訾博ZiBo11 分钟前
AI日报 - 2025年04月25日
人工智能
jndingxin24 分钟前
OpenCV 图形API(52)颜色空间转换-----将 NV12 格式的图像数据转换为 RGB 格式的图像
人工智能·opencv·计算机视觉
华为云PaaS服务小智31 分钟前
《重塑AI应用架构》系列: Serverless与MCP融合创新,构建AI应用全新智能中枢
人工智能·架构·serverless·华为云
pljnb1 小时前
循环神经网络(RNN)
人工智能·rnn·深度学习
annus mirabilis1 小时前
PyTorch 入门指南:从核心概念到基础实战
人工智能·pytorch·python
昊昊该干饭了2 小时前
【金仓数据库征文】从 HTAP 到 AI 加速,KingbaseES 的未来之路
数据库·人工智能·金仓数据库 2025 征文·数据库平替用金仓
摸鱼仙人~2 小时前
深度学习优化器和调度器的选择和推荐
人工智能·深度学习
二川bro2 小时前
AI与Web3.0:技术融合
人工智能·web3