GAN:WGAN-DIV

论文:https://arxiv.org/pdf/1712.01026.pdf

代码:

发表:2018

摘要

在计算机视觉的许多领域中,生成对抗性网络已经取得了巨大的成功,其中WGANs系列被认为是最先进的,主要是由于其理论贡献和竞争的定性表现。然而,通过 Wasserstein-1 度量(W-met)来近似 k-Lipschitz约束是非常具有挑战性的。作者提出了一种新的 Wasserstein 散度(W-div),它是W-met的松弛版本,不需要k-Lipschitz约束。

公式

是随机噪声

是真数据

是真数据与假数据的线性混合

是两个超参数

再对比一下wgan-gp与wgan-div的目标函数的差异

在 WGAN-gp 中,为了满足 1-Lipschitz 约束,训练出好效果,采用了真假数据的插值方法,来模拟全空间的均匀分布 。 WGAN-div 的作者说,这种做法是一种机械性的,很难靠有限的采样,模拟出这种全空间分布。

with a finite number of training iterations on limited input samples, it is very difficult to guarantee the k-Lipschitz constraint for the whole input domain.

算法****流程

超参选择-k,p

作者固定p = 6,测试不同的k,结果为右下角:发现变化不大。FID基本在16附近。

作者固定k = 2,测试不同的p,结果为左下角:发现p=6时取得最优FID数值。

同时左上角也可以看出wgan-div的收敛速度最快

稳定性实验

4种设置: ResNet, ResNet without BN, ConvNet, ConvNet without BN

实验结果:ResNet 要好于 ConvNet, 有BN 要好于无BN

参考:

1:Wasserstein Divergence for GANs (WGAN-div) 计算W散度 | 莫烦Python

2:WGAN-div:默默无闻的WGAN填坑者(附开源代码) - 知乎

相关推荐
chenkangck5027 分钟前
AI大模型之旅--milvus向量库安装
人工智能·aigc·milvus
学习前端的小z29 分钟前
【AI视频】Runway:Gen-2 图文生视频与运动模式详解
人工智能·aigc·音视频
SpikeKing1 小时前
LLM - 理解 多模态大语言模型(MLLM) 的 指令微调(Instruction-Tuning) 与相关技术 (四)
人工智能·语言模型·指令微调·数据调整·自指令·数据混合·instruction
开MINI的工科男2 小时前
【笔记】自动驾驶预测与决策规划_Part3_路径与轨迹规划
人工智能·笔记·自动驾驶·预测与决策
xuanyu226 小时前
Linux常用指令
linux·运维·人工智能
凡人的AI工具箱6 小时前
AI教你学Python 第11天 : 局部变量与全局变量
开发语言·人工智能·后端·python
晓星航6 小时前
Docker本地部署Chatbot Ollama搭建AI聊天机器人并实现远程交互
人工智能·docker·机器人
Kenneth風车6 小时前
【机器学习(五)】分类和回归任务-AdaBoost算法-Sentosa_DSML社区版
人工智能·算法·低代码·机器学习·数据分析
AI小白龙*6 小时前
大模型团队招人(校招):阿里巴巴智能信息,2025届春招来了!
人工智能·langchain·大模型·llm·transformer
空指针异常Null_Point_Ex7 小时前
大模型LLM之SpringAI:Web+AI(一)
人工智能·chatgpt·nlp