【GAN】数据增强基础知识

最近要用到,但是一点基础都没有,故开个文章记录一下笔记

目录

GAN

DCGAN

WGAN

EEGGAN


GAN

参考

生成对抗网络(GAN) - 知乎 (zhihu.com)

文章

[1406.2661] Generative Adversarial Networks (arxiv.org)

代码

GitHub - yfeng95/GAN: Resources and Implementations of Generative Adversarial Nets: GAN, DCGAN, WGAN, CGAN, InfoGAN

GAN是属于机器学习中generative中的implicit model的一种。

Generative体现在:GAN并不能计算数据真实分布的公式,也就是不能计算概率,但它能根据学习到的数据真实分布来生成一个样本

implicit体现在:它的模型是通过网络层实现的,并不是一个确定的数学公式,好比高斯分布等。

VAE,GAN这些生成模型终极目标是模拟数据的真实分布,模拟的好坏自然得有个测距公式来计算:

  • VAE里面是用KL divegence来计算两个分布的距离。
  • GAN里面可以理解成是用Jessen-Shannon divegence来计算两个分布的距离。

我们常说GAN是一个min-max训练过程,所谓的max其实是对应着鉴别网络,目的是为了训练鉴别网络让其等同于最优JS divence的作用,然后在这个最优的测距网络下,min生成网络。

DCGAN

文章

arxiv.org/pdf/1511.06434.pdf

WGAN

参考

令人拍案叫绝的Wasserstein GAN - 知乎 (zhihu.com)

文章

[1701.04862] Towards Principled Methods for Training Generative Adversarial Networks (arxiv.org)[1701.07875] Wasserstein GAN (arxiv.org)

代码

GitHub - martinarjovsky/WassersteinGAN

现在要说到WS-GAN了,它的最大贡献是(个人观点)指出了KL,JS等这些测距工具都有一个缺点,那就是不连续性,意思就是两个分布的差距是跳跃的,不是连续的,这就导致训练鉴别网络时很不稳定,然后作者提出了WS divegence这个测距工具,WS算出来的两个分布的差距是连续的, 用它来代替鉴别网络(撤换掉sigmoid等),因为是连续,所以训练的时候你可以很清晰的看到鉴别网络的loss是逐步的减小,整个训练过程稳定下来了。

EEGGAN

相关推荐
Elastic 中国社区官方博客4 小时前
Elasticsearch:使用 Agent Builder 的 A2A 实现 - 开发者的圣诞颂歌
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
chools5 小时前
【AI超级智能体】快速搞懂工具调用Tool Calling 和 MCP协议
java·人工智能·学习·ai
郝学胜-神的一滴5 小时前
深度学习必学:PyTorch 神经网络参数初始化全攻略(原理 + 代码 + 选择指南)
人工智能·pytorch·python·深度学习·神经网络·机器学习
leobertlan5 小时前
好玩系列:用20元实现快乐保存器
android·人工智能·算法
笨笨饿5 小时前
#58_万能函数的构造方法:ReLU函数
数据结构·人工智能·stm32·单片机·硬件工程·学习方法
jr-create(•̀⌄•́)5 小时前
从零开始:手动实现神经网络识别手写数字(完整代码讲解)
人工智能·深度学习·神经网络
冬奇Lab6 小时前
一天一个开源项目(第78篇):MiroFish - 用群体智能引擎预测未来
人工智能·开源·资讯
冬奇Lab6 小时前
你的 Skill 真的好用吗?来自OpenAI的 Eval 系统化验证 Agent 技能方法论
人工智能·openai
数智工坊6 小时前
Transformer 全套逻辑:公式推导 + 原理解剖 + 逐行精读 - 划时代封神之作!
人工智能·深度学习·transformer
GreenTea6 小时前
AI 时代,工程师的不可替代性在哪里
前端·人工智能·后端