【GAN】数据增强基础知识

最近要用到,但是一点基础都没有,故开个文章记录一下笔记

目录

GAN

DCGAN

WGAN

EEGGAN


GAN

参考

生成对抗网络(GAN) - 知乎 (zhihu.com)

文章

[1406.2661] Generative Adversarial Networks (arxiv.org)

代码

GitHub - yfeng95/GAN: Resources and Implementations of Generative Adversarial Nets: GAN, DCGAN, WGAN, CGAN, InfoGAN

GAN是属于机器学习中generative中的implicit model的一种。

Generative体现在:GAN并不能计算数据真实分布的公式,也就是不能计算概率,但它能根据学习到的数据真实分布来生成一个样本

implicit体现在:它的模型是通过网络层实现的,并不是一个确定的数学公式,好比高斯分布等。

VAE,GAN这些生成模型终极目标是模拟数据的真实分布,模拟的好坏自然得有个测距公式来计算:

  • VAE里面是用KL divegence来计算两个分布的距离。
  • GAN里面可以理解成是用Jessen-Shannon divegence来计算两个分布的距离。

我们常说GAN是一个min-max训练过程,所谓的max其实是对应着鉴别网络,目的是为了训练鉴别网络让其等同于最优JS divence的作用,然后在这个最优的测距网络下,min生成网络。

DCGAN

文章

arxiv.org/pdf/1511.06434.pdf

WGAN

参考

令人拍案叫绝的Wasserstein GAN - 知乎 (zhihu.com)

文章

[1701.04862] Towards Principled Methods for Training Generative Adversarial Networks (arxiv.org)[1701.07875] Wasserstein GAN (arxiv.org)

代码

GitHub - martinarjovsky/WassersteinGAN

现在要说到WS-GAN了,它的最大贡献是(个人观点)指出了KL,JS等这些测距工具都有一个缺点,那就是不连续性,意思就是两个分布的差距是跳跃的,不是连续的,这就导致训练鉴别网络时很不稳定,然后作者提出了WS divegence这个测距工具,WS算出来的两个分布的差距是连续的, 用它来代替鉴别网络(撤换掉sigmoid等),因为是连续,所以训练的时候你可以很清晰的看到鉴别网络的loss是逐步的减小,整个训练过程稳定下来了。

EEGGAN

相关推荐
訾博ZiBo9 分钟前
AI日报 - 2025年3月7日
人工智能
梓羽玩Python12 分钟前
一夜刷屏AI圈!Manus:这不是聊天机器人,是你的“AI打工仔”!
人工智能
Gene_INNOCENT13 分钟前
大型语言模型训练的三个阶段:Pre-Train、Instruction Fine-tuning、RLHF (PPO / DPO / GRPO)
人工智能·深度学习·语言模型
游戏智眼13 分钟前
中国团队发布通用型AI Agent产品Manus;GPT-4.5正式面向Plus用户推出;阿里发布并开源推理模型通义千问QwQ-32B...|游戏智眼日报
人工智能·游戏·游戏引擎·aigc
挣扎与觉醒中的技术人15 分钟前
如何优化FFmpeg拉流性能及避坑指南
人工智能·深度学习·性能优化·ffmpeg·aigc·ai编程
watersink18 分钟前
Dify框架下的基于RAG流程的政务检索平台
人工智能·深度学习·机器学习
脑极体22 分钟前
在MWC2025,读懂华为如何以行践言
大数据·人工智能·华为
DeepBI24 分钟前
AI+大数据:DeepBI重构竞品分析新思路
人工智能
KoiC26 分钟前
内网环境部署Deepseek+Dify,构建企业私有化AI应用
linux·人工智能·ubuntu·docker·大模型·ai应用·deepseek
不去幼儿园37 分钟前
【启发式算法】Dijkstra算法详细介绍(Python)
人工智能·python·算法·机器学习·启发式算法·图搜索算法