【GAN】数据增强基础知识

最近要用到,但是一点基础都没有,故开个文章记录一下笔记

目录

GAN

DCGAN

WGAN

EEGGAN


GAN

参考

生成对抗网络(GAN) - 知乎 (zhihu.com)

文章

[1406.2661] Generative Adversarial Networks (arxiv.org)

代码

GitHub - yfeng95/GAN: Resources and Implementations of Generative Adversarial Nets: GAN, DCGAN, WGAN, CGAN, InfoGAN

GAN是属于机器学习中generative中的implicit model的一种。

Generative体现在:GAN并不能计算数据真实分布的公式,也就是不能计算概率,但它能根据学习到的数据真实分布来生成一个样本

implicit体现在:它的模型是通过网络层实现的,并不是一个确定的数学公式,好比高斯分布等。

VAE,GAN这些生成模型终极目标是模拟数据的真实分布,模拟的好坏自然得有个测距公式来计算:

  • VAE里面是用KL divegence来计算两个分布的距离。
  • GAN里面可以理解成是用Jessen-Shannon divegence来计算两个分布的距离。

我们常说GAN是一个min-max训练过程,所谓的max其实是对应着鉴别网络,目的是为了训练鉴别网络让其等同于最优JS divence的作用,然后在这个最优的测距网络下,min生成网络。

DCGAN

文章

arxiv.org/pdf/1511.06434.pdf

WGAN

参考

令人拍案叫绝的Wasserstein GAN - 知乎 (zhihu.com)

文章

[1701.04862] Towards Principled Methods for Training Generative Adversarial Networks (arxiv.org)[1701.07875] Wasserstein GAN (arxiv.org)

代码

GitHub - martinarjovsky/WassersteinGAN

现在要说到WS-GAN了,它的最大贡献是(个人观点)指出了KL,JS等这些测距工具都有一个缺点,那就是不连续性,意思就是两个分布的差距是跳跃的,不是连续的,这就导致训练鉴别网络时很不稳定,然后作者提出了WS divegence这个测距工具,WS算出来的两个分布的差距是连续的, 用它来代替鉴别网络(撤换掉sigmoid等),因为是连续,所以训练的时候你可以很清晰的看到鉴别网络的loss是逐步的减小,整个训练过程稳定下来了。

EEGGAN

相关推荐
workflower11 分钟前
以光量子为例,详解量子获取方式
数据仓库·人工智能·软件工程·需求分析·量子计算·软件需求
壹氿15 分钟前
Supersonic 新一代AI数据分析平台
人工智能·数据挖掘·数据分析
张较瘦_22 分钟前
[论文阅读] 人工智能 | 搜索增强LLMs的用户偏好与性能分析
论文阅读·人工智能
我不是小upper33 分钟前
SVM超详细原理总结
人工智能·机器学习·支持向量机
Yxh1813778455439 分钟前
抖去推--短视频矩阵系统源码开发
人工智能·python·矩阵
取酒鱼食--【余九】1 小时前
rl_sar实现sim2real的整体思路
人工智能·笔记·算法·rl_sar
Jamence2 小时前
多模态大语言模型arxiv论文略读(111)
论文阅读·人工智能·语言模型·自然语言处理·论文笔记
归去_来兮2 小时前
图神经网络(GNN)模型的基本原理
大数据·人工智能·深度学习·图神经网络·gnn
爱吃饼干的熊猫2 小时前
PlayDiffusion上线:AI语音编辑进入“无痕时代”
人工智能·语音识别