【GAN】生成对抗网络Generative Adversarial Networks理解摘要

【Pytorch】生成对抗网络实战_pytorch生成对抗网络-CSDN博客

【损失函数】KL散度与交叉熵理解-CSDN博客

[1406.2661] Generative Adversarial Networks (arxiv.org)
GAN本质是对抗或者说竞争,通过生成器和鉴别器的竞争获取有效地结果,换句话说,GAN是在养蛊,大量数据和批次的训练最终培养出最合适的蛊王,而不合适的死于对抗。

目录

GAN的主要思想

GAN的网络结构

GAN的损失函数

优化判别器

优化生成器


GAN的主要思想

GAN模型的思想比较简单,其先假设一个生成图片的神经网络,称为生成器,设为G,它的作用是将随机分布的噪声映射到图像域,简单来说就是神经网络的输入是随机生成的噪声,然后输出是需要的图像;又假设了一个判断图像是真实的图像还是由生成器生成图像的神经网络,称为鉴别器,设为D,它的作用是判断一副图像是真实的还是由生成器生成的,简单来讲就是输入是一副图像,然后输出是0或1,0表示该图像是由生成器生成的,1表示它是真实的图像。

GAN的网络结构

中 G 表示生成器,D 表示判别器,D(x) 输出 [0,1] 之间的数,表示判别器 D 判断数据 x 是真实样本的概率。D(x) 的 label 是 0 和 1,0 表示生成器生成的虚假数据 Xfeak,1 表示 从数据集中采样的真实样本 Xreal。GAN 训练的直接目标有两个:

• 使生成器 G 能够尽可能生成贴近真实样本的虚假数据

• 使判别器 D 能尽量好地区分真实样本和虚假数据

GAN的损失函数

真实数据分布是,随机噪声的分布是,GAN 的损失函数为:

其中 D(x) 表示判别器 D 判定 x 是真实样本的概率,D(G(z)) 表示 D 判定 G(z) 是真实样本的概率。

如果分类器 G 的性能好,在判别器 D 的性能固定的情况下;G(z) 贴近真实样本的概 率较高,则 V(D,G) 更小;如果判别器 D 的性能好,在分类器 G 的性能固定的情况下;则 D(x) 更大,D(G(z)) 更小,则 V(D,G) 更大。

因此生成器 G 的优化目标是,而判别器 D 的优化目标是。因此此 G 和 D 产生了对抗关系,这也就是生成对抗网络名字的由来。网络希望找到一个 V (G, D), 使其对于生成器来说最小而对于判别器来说最大。

由于 GAN 需要同时训练生成器和判别器,在实际训练中,GAN 先固定生成器,求出最优的判别器 D∗;然后在判别器固定为 D∗ 时求出最优的生成器 G∗。

优化判别器

先假设生成器 G 固定,计算最优的判别器 D∗

为x 服从数据集数据的分布,x 是训练集里的图像数据,即真实的图像。

为图像数据输入鉴别器D后对应的输出,是一个处于0~1之间的数 。

,为z服从随机噪声的分布,z是随机生成的噪声数据,即非真噪声。

为z输入生成器G后对应的输出,也就是生成器根据噪声生成的(假)图像。

为(假)图像输入鉴别器D后对应的输出,是一个处于0~1之间的数 。

这一步的目的就是优化鉴别器D使得上面这两个平均最大,实际上就是使得尽可能大,也就是尽可能大,实际意义就是对于真实的图像数据输入,鉴别器应使得输出尽可能接近1,即把它判别为真,然后尽可能大,也就是尽可能大,也就是尽可能小,实际意义就是对于生成器生成的图像数据输入,鉴别器应使得输出尽可能接近0,即把它判断为假。可以从更严谨的公式推导说明这一点:

第二行进行了变量替换,且 是两个不同的分布。目标是找到使积分项 最大的 D∗,且 D∗ 应该与 x 无关, 而是与 相关。由于已知,且我们假设 G 固定,则也是固定的,所以只需 使 f(x) 对 D(x) 求导等于 0 即可求出 D∗。即

从而解得

从严谨的公式推导层面说明,GAN 的最终目标是训练出一个性能优异的生成器,当生成器生成的数据的分布 与真实数据的分布非常接近时,,即判别器无法判别生成器生成的数据的真伪。

优化生成器

基于最优的判别器 D∗,计算最优的判别器 G∗

优化生成器G,即使得尽可能小,也就是尽可能大,实际意义就是对于生成器G生成的图像判别器判别结果尽可能接近1,即尽可能接近真实图像。

将D∗ 代入V(G,D)可以得到

其中为JS散度,全称为Jensen-Shannon散度,是一种衡量两个概率分布相似程度的方法。JS 散度 是基于 KL 散度计算的,它与 KL 散度一样具有非负性;但与 KL 散度不 同的是,JS 散度具有对称性。关于KL散度,可以参照【损失函数】KL散度与交叉熵理解-CSDN博客

定义 ,从而两个分布 P (x) 和 Q(x) 之间的 JS 散度为:

因此当且仅当时,

上面两步分布进行,即先优化判别器,再优化生成器。依据这种逻辑多次训练后的生成器生成的数据服从的分布将逐渐有效拟合真实数据。https://arxiv.org/abs/1406.2661​​​​​​​

上图中,黑色散点表示生成器生成的数据服从的分布,绿色线条表示真实数据服从的分布,经过迭代训练,生成器生成的数据服从的分布同真实数据的分布逐渐接近,几乎完全重合。

从而基于这样的损失函数思路,生成的图像将达到较好的逼真效果。https://arxiv.org/abs/1406.2661

相关推荐
好评笔记几秒前
深度学习笔记——循环神经网络RNN
人工智能·rnn·深度学习·机器学习·计算机视觉·面试·aigc
金融OG2 分钟前
1.2 Kaggle大白话:Eedi竞赛Transformer框架解决方案02-GPT_4o生成训练集缺失数据
开发语言·人工智能·python·gpt·机器学习
强哥之神5 分钟前
host.docker.internal 及 host-gateway 知多少
人工智能·docker·语言模型·容器·gateway·deepseek
CSBLOG15 分钟前
LLM(大语言模型)、Chat 大模型和 Embedding 大模型
人工智能·语言模型·embedding
uesowys30 分钟前
阿里云 | 快速在网站上增加一个AI助手
人工智能·阿里云·云计算·智能体应用
阿三08121 小时前
企业级AI办公落地实践:基于钉钉/飞书的标准产品解决方案
人工智能·深度学习·机器学习
sinat_286945191 小时前
一种简单的ReAct agent演示
人工智能·chatgpt·prompt
Cherry Xie2 小时前
阿里开源正式开园文生视频、图生视频模型-通义万相 WanX2.1
人工智能·音视频
热爱编程的OP2 小时前
第九章:多模态大语言模型
人工智能·语言模型·自然语言处理
zxfeng~2 小时前
深度学习之“雅可比矩阵与黑塞矩阵”
人工智能·python·深度学习·神经网络