day54 python对抗生成网络

目录

一、GAN对抗生成网络思想

二、实践过程

[1. 数据准备](#1. 数据准备)

[2. 构建生成器和判别器](#2. 构建生成器和判别器)

[3. 训练过程](#3. 训练过程)

[4. 生成结果与可视化](#4. 生成结果与可视化)

三、学习总结


一、GAN对抗生成网络思想

GAN的核心思想非常有趣且富有对抗性。它由两部分组成:生成器(Generator)和判别器(Discriminator)。生成器的任务是从随机噪声中生成尽可能接近真实数据的样本,而判别器的任务则是区分生成器生成的假样本和真实样本。这两个网络在训练过程中相互对抗,生成器不断改进生成的样本以欺骗判别器,判别器则不断提升自己的辨别能力。最终,当生成器生成的样本足够逼真,以至于判别器难以区分真假时,GAN达到了一种平衡状态。

从数学角度来看,GAN的损失函数由两部分组成:生成器的损失和判别器的损失。判别器的损失是一个二分类问题的损失,通常使用二元交叉熵损失(BCELoss)。生成器的损失则依赖于判别器的反馈,目标是让判别器将生成的样本误判为真实样本。这种对抗机制使得GAN能够生成高质量的样本,尤其是在图像生成领域。

二、实践过程

为了更好地理解GAN的工作原理,我使用了Python和PyTorch框架实现了一个简单的GAN模型。以下是我的实践过程和代码实现。

1. 数据准备

我选择了经典的鸢尾花(Iris)数据集中的"Setosa"类别作为实验对象。这个数据集包含4个特征,非常适合用来测试GAN模型。我首先对数据进行了归一化处理,将其缩放到[-1, 1]范围内,以提高模型的训练效果。

python 复制代码
import torch
import torch.nn as nn
import torch.optim as optim
from torch.utils.data import DataLoader, TensorDataset
import numpy as np
import pandas as pd
from sklearn.preprocessing import MinMaxScaler
from sklearn.datasets import load_iris
import matplotlib.pyplot as plt

# 加载数据
iris = load_iris()
X = iris.data
y = iris.target

# 选择 Setosa 类别
X_class0 = X[y == 0]

# 数据归一化
scaler = MinMaxScaler(feature_range=(-1, 1))
X_scaled = scaler.fit_transform(X_class0)

# 转换为 PyTorch Tensor
real_data_tensor = torch.from_numpy(X_scaled).float()
dataset = TensorDataset(real_data_tensor)
dataloader = DataLoader(dataset, batch_size=32, shuffle=True)

2. 构建生成器和判别器

接下来,我定义了生成器和判别器的网络结构。生成器使用了简单的多层感知机(MLP)结构,输入是随机噪声,输出是与真实数据维度相同的样本。判别器同样使用MLP结构,输出是一个概率值,表示输入样本是真实样本的概率。

python 复制代码
class Generator(nn.Module):
    def __init__(self):
        super(Generator, self).__init__()
        self.model = nn.Sequential(
            nn.Linear(10, 16),
            nn.ReLU(),
            nn.Linear(16, 32),
            nn.ReLU(),
            nn.Linear(32, 4),
            nn.Tanh()
        )

    def forward(self, x):
        return self.model(x)

class Discriminator(nn.Module):
    def __init__(self):
        super(Discriminator, self).__init__()
        self.model = nn.Sequential(
            nn.Linear(4, 32),
            nn.LeakyReLU(0.2),
            nn.Linear(32, 16),
            nn.LeakyReLU(0.2),
            nn.Linear(16, 1),
            nn.Sigmoid()
        )

    def forward(self, x):
        return self.model(x)

3. 训练过程

在训练过程中,我交替更新生成器和判别器的参数。每一步中,首先用真实数据和生成数据训练判别器,然后用生成数据训练生成器。通过这种方式,两个网络不断对抗,逐渐提升性能。

python 复制代码
# 定义损失函数和优化器
criterion = nn.BCELoss()
g_optimizer = optim.Adam(generator.parameters(), lr=0.0002, betas=(0.5, 0.999))
d_optimizer = optim.Adam(discriminator.parameters(), lr=0.0002, betas=(0.5, 0.999))

# 训练循环
for epoch in range(10000):
    for i, (real_data,) in enumerate(dataloader):
        # 训练判别器
        d_optimizer.zero_grad()
        real_output = discriminator(real_data)
        d_loss_real = criterion(real_output, torch.ones_like(real_output))
        
        noise = torch.randn(real_data.size(0), 10)
        fake_data = generator(noise).detach()
        fake_output = discriminator(fake_data)
        d_loss_fake = criterion(fake_output, torch.zeros_like(fake_output))
        
        d_loss = d_loss_real + d_loss_fake
        d_loss.backward()
        d_optimizer.step()

        # 训练生成器
        g_optimizer.zero_grad()
        fake_data = generator(noise)
        fake_output = discriminator(fake_data)
        g_loss = criterion(fake_output, torch.ones_like(fake_output))
        g_loss.backward()
        g_optimizer.step()

    if (epoch + 1) % 1000 == 0:
        print(f"Epoch [{epoch+1}/10000], Discriminator Loss: {d_loss.item():.4f}, Generator Loss: {g_loss.item():.4f}")

4. 生成结果与可视化

训练完成后,我使用生成器生成了一些新的样本,并将它们与真实样本进行了可视化对比。从结果可以看出,生成器生成的样本在分布上与真实样本较为接近,说明GAN模型在一定程度上成功地学习了数据的分布。

python 复制代码
# 生成新样本
with torch.no_grad():
    noise = torch.randn(50, 10)
    generated_data_scaled = generator(noise)

# 逆向转换回原始尺度
generated_data = scaler.inverse_transform(generated_data_scaled.numpy())
real_data_original_scale = scaler.inverse_transform(X_scaled)

# 可视化对比
fig, axes = plt.subplots(2, 2, figsize=(12, 10))
fig.suptitle('真实数据 vs. GAN生成数据 的特征分布对比', fontsize=16)
feature_names = iris.feature_names

for i, ax in enumerate(axes.flatten()):
    ax.hist(real_data_original_scale[:, i], bins=10, density=True, alpha=0.6, label='Real Data')
    ax.hist(generated_data[:, i], bins=10, density=True, alpha=0.6, label='Generated Data')
    ax.set_title(feature_names[i])
    ax.legend()

plt.tight_layout(rect=[0, 0.03, 1, 0.95])
plt.show()

三、学习总结

通过这次实践,我对GAN的工作原理有了更深入的理解。GAN的核心在于生成器和判别器的对抗机制,这种机制使得模型能够生成高质量的样本。在实际应用中,GAN不仅可以用于图像生成,还可以用于数据增强、风格迁移等任务。

然而,GAN的训练过程也存在一些挑战。例如,生成器和判别器的平衡很难把握,如果其中一个网络过于强大,可能会导致训练失败。此外,GAN的训练过程通常需要大量的计算资源和时间。

在未来的学习中,我计划探索更多GAN的变体,如WGAN、DCGAN等,以更好地理解和应用生成对抗网络。同时,我也希望能够将GAN应用于更复杂的任务中,例如图像生成和视频生成,进一步提升我的深度学习技能。

@浙大疏锦行

相关推荐
_Kayo_5 小时前
node.js 学习笔记3 HTTP
笔记·学习
wyiyiyi7 小时前
【Web后端】Django、flask及其场景——以构建系统原型为例
前端·数据库·后端·python·django·flask
CCCC13101638 小时前
嵌入式学习(day 28)线程
jvm·学习
mit6.8248 小时前
[1Prompt1Story] 滑动窗口机制 | 图像生成管线 | VAE变分自编码器 | UNet去噪神经网络
人工智能·python
没有bug.的程序员8 小时前
JVM 总览与运行原理:深入Java虚拟机的核心引擎
java·jvm·python·虚拟机
甄超锋8 小时前
Java ArrayList的介绍及用法
java·windows·spring boot·python·spring·spring cloud·tomcat
星星火柴9369 小时前
关于“双指针法“的总结
数据结构·c++·笔记·学习·算法
小狗爱吃黄桃罐头9 小时前
正点原子【第四期】Linux之驱动开发篇学习笔记-1.1 Linux驱动开发与裸机开发的区别
linux·驱动开发·学习
秃了也弱了。9 小时前
WireShark:非常好用的网络抓包工具
网络·测试工具·wireshark
AntBlack9 小时前
不当韭菜V1.1 :增强能力 ,辅助构建自己的交易规则
后端·python·pyqt