GAN:WGAN-DIV

论文:https://arxiv.org/pdf/1712.01026.pdf

代码:

发表:2018

摘要

在计算机视觉的许多领域中,生成对抗性网络已经取得了巨大的成功,其中WGANs系列被认为是最先进的,主要是由于其理论贡献和竞争的定性表现。然而,通过 Wasserstein-1 度量(W-met)来近似 k-Lipschitz约束是非常具有挑战性的。作者提出了一种新的 Wasserstein 散度(W-div),它是W-met的松弛版本,不需要k-Lipschitz约束。

公式

是随机噪声

是真数据

是真数据与假数据的线性混合

是两个超参数

再对比一下wgan-gp与wgan-div的目标函数的差异

在 WGAN-gp 中,为了满足 1-Lipschitz 约束,训练出好效果,采用了真假数据的插值方法,来模拟全空间的均匀分布 。 WGAN-div 的作者说,这种做法是一种机械性的,很难靠有限的采样,模拟出这种全空间分布。

with a finite number of training iterations on limited input samples, it is very difficult to guarantee the k-Lipschitz constraint for the whole input domain.

算法****流程

超参选择-k,p

作者固定p = 6,测试不同的k,结果为右下角:发现变化不大。FID基本在16附近。

作者固定k = 2,测试不同的p,结果为左下角:发现p=6时取得最优FID数值。

同时左上角也可以看出wgan-div的收敛速度最快

稳定性实验

4种设置: ResNet, ResNet without BN, ConvNet, ConvNet without BN

实验结果:ResNet 要好于 ConvNet, 有BN 要好于无BN

参考:

1:Wasserstein Divergence for GANs (WGAN-div) 计算W散度 | 莫烦Python

2:WGAN-div:默默无闻的WGAN填坑者(附开源代码) - 知乎

相关推荐
科研实践课堂(小绿书)6 小时前
华科/浙大团队Science子刊:光计算抛弃模拟乘法,用逻辑门跑神经网络
人工智能·深度学习·神经网络
rainy雨6 小时前
精益数据分析系统功能拆解:如何用精益数据分析解决指标虚高难题与初创期验证场景
大数据·数据库·人工智能·信息可视化·数据挖掘·数据分析·精益工程
SariHcr1236 小时前
基于医学图像分类算法研究(五)——基于上次kvasir后扩充数据集再次进行训练测试
人工智能
小陈工6 小时前
Python Web开发入门(十):数据库迁移与版本管理——让数据库变更可控可回滚
前端·数据库·人工智能·python·sql·云原生·架构
GlobalInfo6 小时前
2026全球及中国源网荷储一体化方案市场风险评估及前景规划建议报告
大数据·人工智能
wal13145206 小时前
OpenClaw 2026.4.2 版本更新:默认 YOLO 模式,告别批准提示
人工智能·yolo·openclaw
yanwumuxi6 小时前
Windows本地部署Dify(Docker)
人工智能·docker·语言模型
鼎上西瓜刀6 小时前
labelimg在windows上的使用
人工智能·深度学习
2301_764441336 小时前
大模型的“做梦”机制与Harness Engineering(驾驭工程)
人工智能·语言模型·自然语言处理
夏沫の梦6 小时前
生成式推荐系统:技术演进、核心架构与工业实践
人工智能