数据预处理:像素标记与归一化
在 GAN 里,图像的确会被分解成一个个像素点来处理。在你的代码里,transform = transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.5,), (0.5,))])
这部分对图像进行了预处理:
transforms.ToTensor()
:把图像转换为张量,也就是把图像的像素值转化为可以被神经网络处理的数值形式。transforms.Normalize((0.5,), (0.5,))
:对像素值进行归一化,将像素值的范围从[0, 1]
转换到[-1, 1]
。这可以让训练过程更加稳定。
生成器:基于随机噪声生成假图像
生成器接收随机噪声作为输入,就像代码中的 noise = torch.randn(batch_size, z_dim).to(device)
,这里的 noise
是从标准正态分布中随机采样得到的。生成器的任务是把这个随机噪声转换为与真实图像相似的假图像,即 fake = gen(noise)
。生成器通过一系列的神经网络层(在你的代码里是全连接层)对随机噪声进行变换,尝试学习到真实图像数据的分布。
判别器:判断图像真假
判别器接收真实图像和生成器生成的假图像作为输入,然后判断输入的图像是真实的还是假的。在代码中,disc_real = disc(real).view(-1)
和 disc_fake = disc(fake.detach()).view(-1)
分别表示判别器对真实图像和假图像的判断结果。判别器的输出是一个介于 [0, 1]
之间的概率值,越接近 1 表示判别器认为输入的图像是真实图像的可能性越大,越接近 0 则表示认为是假图像的可能性越大。
对比与优化
-
判别器优化 :判别器的目标是准确区分真实图像和假图像。代码中通过计算判别器对真实图像和假图像的损失,即
lossD_real = criterion(disc_real, torch.ones_like(disc_real))
和lossD_fake = criterion(disc_fake, torch.zeros_like(disc_fake))
,然后将两者的平均值作为判别器的总损失lossD = (lossD_real + lossD_fake) / 2
。接着使用反向传播算法lossD.backward()
和优化器opt_disc.step()
来更新判别器的参数,使其能够更好地区分真假图像。 -
生成器优化 :生成器的目标是生成能够欺骗判别器的假图像。代码中通过计算生成器生成的假图像被判别器判断为真实图像的损失,即
lossG = criterion(output, torch.ones_like(output))
,然后使用反向传播算法lossG.backward()
和优化器opt_gen.step()
来更新生成器的参数,使其能够生成更逼真的假图像。 -
真实图像损失(
lossD_real
) :在代码里,
disc_real = disc(real).view(-1)
这行将真实图像real
输入到判别器disc
中,得到判别器对真实图像的判断结果disc_real
。每个元素代表判别器认为对应真实图像是真实图像的概率。
lossD_real = criterion(disc_real, torch.ones_like(disc_real))
这行使用二元交叉熵损失函数criterion
来计算判别器对真实图像的损失。torch.ones_like(disc_real)
构建了一个和disc_real
形状相同且元素全为 1 的张量,这代表真实图像的标签都应该是 1。二元交叉熵损失函数会衡量disc_real
和全 1 张量之间的差异,差异越大,损失值就越大。 -
假图像损失(
lossD_fake
) :
disc_fake = disc(fake.detach()).view(-1)
把生成器生成的假图像fake
输入到判别器中得到判断结果disc_fake
。这里使用detach()
方法是为了防止在更新判别器参数时影响到生成器的参数。
lossD_fake = criterion(disc_fake, torch.zeros_like(disc_fake))
使用二元交叉熵损失函数计算判别器对假图像的损失。torch.zeros_like(disc_fake)
构建了一个和disc_fake
形状相同且元素全为 0 的张量,这代表假图像的标签都应该是 0。 -
总损失(
lossD
) :
lossD = (lossD_real + lossD_fake) / 2
把真实图像损失和假图像损失取平均值作为判别器的总损失。这样做能让判别器在区分真实图像和假图像时保持平衡。