WGAN算法

Wasserstein GAN (WGAN) 是一种改进的生成对抗网络(GAN),由 Arjovsky 等人在 2017 年提出,用于解决原始 GAN 中的训练不稳定性和模式崩溃(Mode Collapse)问题。WGAN 的核心思想是使用Wasserstein 距离(也叫 Earth Mover's 距离,EM 距离)来度量生成分布和真实分布之间的距离,代替原始 GAN 使用的 Jensen-Shannon (JS) 散度。

1. 原始 GAN 的问题

在原始 GAN 中,生成器 G G G 和判别器 D D D 通过博弈论的方式进行对抗性训练,目标是让 G G G 生成的假样本与真实样本尽可能相似,而 D D D 则要尽可能区分开真假样本。GAN 的损失函数基于交叉熵,具体公式如下:

  • 判别器损失
    L D = − E x ∼ P d a t a [ log ⁡ D ( x ) ] − E z ∼ P z [ log ⁡ ( 1 − D ( G ( z ) ) ) ] L_D = -\mathbb{E}{x \sim P{data}}[\log D(x)] - \mathbb{E}_{z \sim P_z}[\log (1 - D(G(z)))] LD=−Ex∼Pdata[logD(x)]−Ez∼Pz[log(1−D(G(z)))]
  • 生成器损失
    L G = − E z ∼ P z [ log ⁡ D ( G ( z ) ) ] L_G = -\mathbb{E}_{z \sim P_z}[\log D(G(z))] LG=−Ez∼Pz[logD(G(z))]

在训练过程中,GAN 使用的 Jensen-Shannon 散度(JS 散度)在两个分布不重叠的情况下为常数,这会导致生成器梯度消失,造成训练不稳定,模型难以收敛。此外,原始 GAN 经常会出现模式崩溃问题,即生成器只能生成一小部分样本,不能涵盖真实数据分布的所有模式。

2. WGAN 的改进:使用 Wasserstein 距离

WGAN 的关键改进是用 Wasserstein 距离来替代 JS 散度。Wasserstein 距离度量两个概率分布之间的距离,反映了从一个分布变换到另一个分布所需的最小"代价",这个代价可以理解为将一个分布的质量搬运到另一个分布的总距离(类似于搬运土堆的工作量,因此也叫 Earth Mover's 距离)。

Wasserstein 距离的定义:

给定两个概率分布 P r P_r Pr 和 P g P_g Pg,它们的 Wasserstein 距离定义为:
W ( P r , P g ) = inf ⁡ γ ∈ Π ( P r , P g ) E ( x , y ) ∼ γ [ ∥ x − y ∥ ] W(P_r, P_g) = \inf_{\gamma \in \Pi(P_r, P_g)} \mathbb{E}_{(x, y) \sim \gamma} [\|x - y\|] W(Pr,Pg)=γ∈Π(Pr,Pg)infE(x,y)∼γ[∥x−y∥]

其中 Π ( P r , P g ) \Pi(P_r, P_g) Π(Pr,Pg) 是所有将 P r P_r Pr 变为 P g P_g Pg 的联合分布, ∥ x − y ∥ \|x - y\| ∥x−y∥ 表示从 P r P_r Pr 采样的 x x x 和从 P g P_g Pg 采样的 y y y 之间的距离。

Wasserstein 距离具有良好的性质:

  • 可微分:即使生成器和真实分布没有重叠,Wasserstein 距离仍然可以提供有意义的梯度。
  • 更稳定:WGAN 训练过程更加稳定,生成器和判别器的更新更加顺畅,避免了梯度消失问题。

3. WGAN 的损失函数

为了使用 Wasserstein 距离,WGAN 对判别器进行了修改。原始 GAN 的判别器输出为一个二值概率,判别样本是真实的还是生成的。而 WGAN 的判别器不再是输出概率,而是一个评分函数(score function),用来衡量样本的"真实程度"。

在 WGAN 中,判别器被称为批评器(Critic),其损失函数变为:

  • 批评器损失
    L C = − E x ∼ P r [ C ( x ) ] + E z ∼ P z [ C ( G ( z ) ) ] L_C = -\mathbb{E}{x \sim P_r}[C(x)] + \mathbb{E}{z \sim P_z}[C(G(z))] LC=−Ex∼Pr[C(x)]+Ez∼Pz[C(G(z))]

    其中 C ( x ) C(x) C(x) 是批评器对真实样本 x x x 的打分, C ( G ( z ) ) C(G(z)) C(G(z)) 是对生成样本的打分。

  • 生成器损失
    L G = − E z ∼ P z [ C ( G ( z ) ) ] L_G = -\mathbb{E}_{z \sim P_z}[C(G(z))] LG=−Ez∼Pz[C(G(z))]

批评器的目标是让 C ( x ) C(x) C(x) 尽可能大, C ( G ( z ) ) C(G(z)) C(G(z)) 尽可能小,从而拉开真实样本和生成样本的评分差距。

4. 1-Lipschitz 连续性和权重裁剪

为了保证 Wasserstein 距离的计算有效,批评器必须满足1-Lipschitz 连续性 。也就是说,对于任何两个输入 x 1 x_1 x1 和 x 2 x_2 x2,都要求:
∣ C ( x 1 ) − C ( x 2 ) ∣ ≤ ∥ x 1 − x 2 ∥ |C(x_1) - C(x_2)| \leq \|x_1 - x_2\| ∣C(x1)−C(x2)∣≤∥x1−x2∥

WGAN 通过**权重裁剪(weight clipping)**来强制批评器满足 1-Lipschitz 连续性。即在每次更新批评器的参数后,将权重限制在某个范围内,如 [ − 0.01 , 0.01 ] [-0.01, 0.01] [−0.01,0.01]。虽然权重裁剪是 WGAN 中的一个重要步骤,但在实际应用中,裁剪会导致模型训练变得较为不稳定,因此 WGAN 后来被改进为 WGAN-GP(使用梯度惩罚替代权重裁剪,详见 WGAN-GP 部分)。

5. WGAN 的训练流程

WGAN 的训练流程与标准 GAN 相似,但有几点区别:

  1. 批评器更新次数增加:在每次更新生成器之前,批评器通常会进行多次更新(例如 5 次)。这有助于确保批评器能够提供有效的梯度给生成器。
  2. 权重裁剪:在更新批评器参数后,对批评器的权重进行裁剪,以保证 Lipschitz 连续性。
  3. 生成器更新:当批评器的训练充分后,才会更新生成器。

6. WGAN 的优势

  • 梯度消失问题缓解:WGAN 通过 Wasserstein 距离计算出连续可微的损失,即使生成分布和真实分布几乎不重叠,生成器仍能获得有效的梯度更新。
  • 模式崩溃问题缓解:由于 Wasserstein 距离提供了更精确的分布距离衡量标准,生成器更能学习到数据分布的多样性,从而避免模式崩溃。
  • 训练稳定性提升:WGAN 在训练过程中,生成器和判别器的更新更稳定,不容易出现发散或震荡的问题。

7. WGAN 的不足

  • 权重裁剪问题:虽然权重裁剪保证了 Lipschitz 连续性,但它也可能限制批评器的表示能力,使得训练变得较慢或不稳定。为此,WGAN-GP 提出了用梯度惩罚来代替权重裁剪。

8. WGAN-GP(WGAN with Gradient Penalty)

WGAN-GP 是 WGAN 的改进版本,提出了一种更有效的方式来保证批评器的 1-Lipschitz 连续性。它通过引入梯度惩罚(Gradient Penalty)来强制批评器的梯度满足 Lipschitz 条件,而不是使用权重裁剪。

梯度惩罚项
L G P = λ E x ^ ∼ P x ^ [ ( ∥ ∇ x ^ C ( x ^ ) ∥ 2 − 1 ) 2 ] L_{GP} = \lambda \mathbb{E}{\hat{x} \sim P{\hat{x}}} \left[ \left( \|\nabla_{\hat{x}} C(\hat{x}) \|_2 - 1 \right)^2 \right] LGP=λEx^∼Px^[(∥∇x^C(x^)∥2−1)2]

其中 x ^ \hat{x} x^ 是从生成数据和真实数据的线性插值中采样的, λ \lambda λ 是惩罚系数,通常设置为 10。

引入梯度惩罚后,WGAN-GP 保留了 WGAN 的所有优势,同时避免了权重裁剪的缺点,使训练更加稳定高效。


总结:

WGAN 通过 Wasserstein 距离代替 JS 散度,解决了原始 GAN 中的训练不稳定和模式崩溃问题,并显著提升了生成模型的性能和稳定性。尽管 WGAN 存在一些权重裁剪方面的问题,但它为生成模型的发展提供了一个重要的理论基础,后续的 WGAN-GP 改进版进一步提升了其性能。

相关推荐
chenziang114 分钟前
leetcode hot 100 全排列
算法·leetcode·职场和发展
lili-felicity22 分钟前
指针与数组:深入C语言的内存操作艺术
c语言·开发语言·数据结构·算法·青少年编程·c#
PengFly12324 分钟前
题解:[ABC294G] Distance Queries on a Tree
算法·lca·树状数组·dfs序
月亮邮递使light27 分钟前
代码随想录算法训练营第五十八天 | 拓扑排序精讲 dijkstra(朴素版)精讲
算法
四口鲸鱼爱吃盐32 分钟前
Pytorch | 利用GNP针对CIFAR10上的ResNet分类器进行对抗攻击
人工智能·pytorch·python·深度学习·神经网络·计算机视觉
野風_1996020141 分钟前
代码随想录第59天
算法
HappyAcmen1 小时前
青训营-豆包MarsCode技术训练营试题解析四十八
开发语言·python·算法
码农老起1 小时前
插入排序解析:时间复杂度、空间复杂度与优化策略
数据结构·算法·排序算法
可喜~可乐1 小时前
循环神经网络(RNN)入门指南:从原理到实践
人工智能·rnn·深度学习·神经网络·机器学习·lstm
俎树振1 小时前
深入理解与优化Java二维数组:从定义到性能提升的全面指南
java·算法