day54 python对抗生成网络

目录

一、GAN对抗生成网络思想

二、实践过程

[1. 数据准备](#1. 数据准备)

[2. 构建生成器和判别器](#2. 构建生成器和判别器)

[3. 训练过程](#3. 训练过程)

[4. 生成结果与可视化](#4. 生成结果与可视化)

三、学习总结


一、GAN对抗生成网络思想

GAN的核心思想非常有趣且富有对抗性。它由两部分组成:生成器(Generator)和判别器(Discriminator)。生成器的任务是从随机噪声中生成尽可能接近真实数据的样本,而判别器的任务则是区分生成器生成的假样本和真实样本。这两个网络在训练过程中相互对抗,生成器不断改进生成的样本以欺骗判别器,判别器则不断提升自己的辨别能力。最终,当生成器生成的样本足够逼真,以至于判别器难以区分真假时,GAN达到了一种平衡状态。

从数学角度来看,GAN的损失函数由两部分组成:生成器的损失和判别器的损失。判别器的损失是一个二分类问题的损失,通常使用二元交叉熵损失(BCELoss)。生成器的损失则依赖于判别器的反馈,目标是让判别器将生成的样本误判为真实样本。这种对抗机制使得GAN能够生成高质量的样本,尤其是在图像生成领域。

二、实践过程

为了更好地理解GAN的工作原理,我使用了Python和PyTorch框架实现了一个简单的GAN模型。以下是我的实践过程和代码实现。

1. 数据准备

我选择了经典的鸢尾花(Iris)数据集中的"Setosa"类别作为实验对象。这个数据集包含4个特征,非常适合用来测试GAN模型。我首先对数据进行了归一化处理,将其缩放到[-1, 1]范围内,以提高模型的训练效果。

python 复制代码
import torch
import torch.nn as nn
import torch.optim as optim
from torch.utils.data import DataLoader, TensorDataset
import numpy as np
import pandas as pd
from sklearn.preprocessing import MinMaxScaler
from sklearn.datasets import load_iris
import matplotlib.pyplot as plt

# 加载数据
iris = load_iris()
X = iris.data
y = iris.target

# 选择 Setosa 类别
X_class0 = X[y == 0]

# 数据归一化
scaler = MinMaxScaler(feature_range=(-1, 1))
X_scaled = scaler.fit_transform(X_class0)

# 转换为 PyTorch Tensor
real_data_tensor = torch.from_numpy(X_scaled).float()
dataset = TensorDataset(real_data_tensor)
dataloader = DataLoader(dataset, batch_size=32, shuffle=True)

2. 构建生成器和判别器

接下来,我定义了生成器和判别器的网络结构。生成器使用了简单的多层感知机(MLP)结构,输入是随机噪声,输出是与真实数据维度相同的样本。判别器同样使用MLP结构,输出是一个概率值,表示输入样本是真实样本的概率。

python 复制代码
class Generator(nn.Module):
    def __init__(self):
        super(Generator, self).__init__()
        self.model = nn.Sequential(
            nn.Linear(10, 16),
            nn.ReLU(),
            nn.Linear(16, 32),
            nn.ReLU(),
            nn.Linear(32, 4),
            nn.Tanh()
        )

    def forward(self, x):
        return self.model(x)

class Discriminator(nn.Module):
    def __init__(self):
        super(Discriminator, self).__init__()
        self.model = nn.Sequential(
            nn.Linear(4, 32),
            nn.LeakyReLU(0.2),
            nn.Linear(32, 16),
            nn.LeakyReLU(0.2),
            nn.Linear(16, 1),
            nn.Sigmoid()
        )

    def forward(self, x):
        return self.model(x)

3. 训练过程

在训练过程中,我交替更新生成器和判别器的参数。每一步中,首先用真实数据和生成数据训练判别器,然后用生成数据训练生成器。通过这种方式,两个网络不断对抗,逐渐提升性能。

python 复制代码
# 定义损失函数和优化器
criterion = nn.BCELoss()
g_optimizer = optim.Adam(generator.parameters(), lr=0.0002, betas=(0.5, 0.999))
d_optimizer = optim.Adam(discriminator.parameters(), lr=0.0002, betas=(0.5, 0.999))

# 训练循环
for epoch in range(10000):
    for i, (real_data,) in enumerate(dataloader):
        # 训练判别器
        d_optimizer.zero_grad()
        real_output = discriminator(real_data)
        d_loss_real = criterion(real_output, torch.ones_like(real_output))
        
        noise = torch.randn(real_data.size(0), 10)
        fake_data = generator(noise).detach()
        fake_output = discriminator(fake_data)
        d_loss_fake = criterion(fake_output, torch.zeros_like(fake_output))
        
        d_loss = d_loss_real + d_loss_fake
        d_loss.backward()
        d_optimizer.step()

        # 训练生成器
        g_optimizer.zero_grad()
        fake_data = generator(noise)
        fake_output = discriminator(fake_data)
        g_loss = criterion(fake_output, torch.ones_like(fake_output))
        g_loss.backward()
        g_optimizer.step()

    if (epoch + 1) % 1000 == 0:
        print(f"Epoch [{epoch+1}/10000], Discriminator Loss: {d_loss.item():.4f}, Generator Loss: {g_loss.item():.4f}")

4. 生成结果与可视化

训练完成后,我使用生成器生成了一些新的样本,并将它们与真实样本进行了可视化对比。从结果可以看出,生成器生成的样本在分布上与真实样本较为接近,说明GAN模型在一定程度上成功地学习了数据的分布。

python 复制代码
# 生成新样本
with torch.no_grad():
    noise = torch.randn(50, 10)
    generated_data_scaled = generator(noise)

# 逆向转换回原始尺度
generated_data = scaler.inverse_transform(generated_data_scaled.numpy())
real_data_original_scale = scaler.inverse_transform(X_scaled)

# 可视化对比
fig, axes = plt.subplots(2, 2, figsize=(12, 10))
fig.suptitle('真实数据 vs. GAN生成数据 的特征分布对比', fontsize=16)
feature_names = iris.feature_names

for i, ax in enumerate(axes.flatten()):
    ax.hist(real_data_original_scale[:, i], bins=10, density=True, alpha=0.6, label='Real Data')
    ax.hist(generated_data[:, i], bins=10, density=True, alpha=0.6, label='Generated Data')
    ax.set_title(feature_names[i])
    ax.legend()

plt.tight_layout(rect=[0, 0.03, 1, 0.95])
plt.show()

三、学习总结

通过这次实践,我对GAN的工作原理有了更深入的理解。GAN的核心在于生成器和判别器的对抗机制,这种机制使得模型能够生成高质量的样本。在实际应用中,GAN不仅可以用于图像生成,还可以用于数据增强、风格迁移等任务。

然而,GAN的训练过程也存在一些挑战。例如,生成器和判别器的平衡很难把握,如果其中一个网络过于强大,可能会导致训练失败。此外,GAN的训练过程通常需要大量的计算资源和时间。

在未来的学习中,我计划探索更多GAN的变体,如WGAN、DCGAN等,以更好地理解和应用生成对抗网络。同时,我也希望能够将GAN应用于更复杂的任务中,例如图像生成和视频生成,进一步提升我的深度学习技能。

@浙大疏锦行

相关推荐
yiyu071613 分钟前
3分钟搞懂深度学习AI:梯度下降:迷雾中的下山路
人工智能·深度学习
曲幽1 小时前
FastAPI流式输出实战与避坑指南:让AI像人一样“边想边说”
python·ai·fastapi·web·stream·chat·async·generator·ollama
Flittly1 小时前
【从零手写 AI Agent:learn-claude-code 项目实战笔记】(1)The Agent Loop (智能体循环)
python·agent
CoovallyAIHub2 小时前
Moonshine:比 Whisper 快 100 倍的端侧语音识别神器,Star 6.6K!
深度学习·算法·计算机视觉
vivo互联网技术3 小时前
ICLR2026 | 视频虚化新突破!Any-to-Bokeh 一键生成电影感连贯效果
人工智能·python·深度学习
OpenBayes贝式计算3 小时前
边看、边听、边说,MiniCPM-0-4.5 全双工全模态模型;Pan-Cancer scRNA-Seq 涵盖三种生物学状态单细胞转录数据集
人工智能·深度学习·机器学习
CoovallyAIHub3 小时前
速度暴涨10倍、成本暴降6倍!Mercury 2用扩散取代自回归,重新定义LLM推理速度
深度学习·算法·计算机视觉
OpenBayes贝式计算3 小时前
教程上新丨基于500万小时语音数据,Qwen3-TTS实现3秒语音克隆及精细调控
人工智能·深度学习·机器学习
敏编程4 小时前
一天一个Python库:virtualenv - 隔离你的Python环境,保持项目整洁
python