day54 python对抗生成网络

目录

一、GAN对抗生成网络思想

二、实践过程

[1. 数据准备](#1. 数据准备)

[2. 构建生成器和判别器](#2. 构建生成器和判别器)

[3. 训练过程](#3. 训练过程)

[4. 生成结果与可视化](#4. 生成结果与可视化)

三、学习总结


一、GAN对抗生成网络思想

GAN的核心思想非常有趣且富有对抗性。它由两部分组成:生成器(Generator)和判别器(Discriminator)。生成器的任务是从随机噪声中生成尽可能接近真实数据的样本,而判别器的任务则是区分生成器生成的假样本和真实样本。这两个网络在训练过程中相互对抗,生成器不断改进生成的样本以欺骗判别器,判别器则不断提升自己的辨别能力。最终,当生成器生成的样本足够逼真,以至于判别器难以区分真假时,GAN达到了一种平衡状态。

从数学角度来看,GAN的损失函数由两部分组成:生成器的损失和判别器的损失。判别器的损失是一个二分类问题的损失,通常使用二元交叉熵损失(BCELoss)。生成器的损失则依赖于判别器的反馈,目标是让判别器将生成的样本误判为真实样本。这种对抗机制使得GAN能够生成高质量的样本,尤其是在图像生成领域。

二、实践过程

为了更好地理解GAN的工作原理,我使用了Python和PyTorch框架实现了一个简单的GAN模型。以下是我的实践过程和代码实现。

1. 数据准备

我选择了经典的鸢尾花(Iris)数据集中的"Setosa"类别作为实验对象。这个数据集包含4个特征,非常适合用来测试GAN模型。我首先对数据进行了归一化处理,将其缩放到[-1, 1]范围内,以提高模型的训练效果。

python 复制代码
import torch
import torch.nn as nn
import torch.optim as optim
from torch.utils.data import DataLoader, TensorDataset
import numpy as np
import pandas as pd
from sklearn.preprocessing import MinMaxScaler
from sklearn.datasets import load_iris
import matplotlib.pyplot as plt

# 加载数据
iris = load_iris()
X = iris.data
y = iris.target

# 选择 Setosa 类别
X_class0 = X[y == 0]

# 数据归一化
scaler = MinMaxScaler(feature_range=(-1, 1))
X_scaled = scaler.fit_transform(X_class0)

# 转换为 PyTorch Tensor
real_data_tensor = torch.from_numpy(X_scaled).float()
dataset = TensorDataset(real_data_tensor)
dataloader = DataLoader(dataset, batch_size=32, shuffle=True)

2. 构建生成器和判别器

接下来,我定义了生成器和判别器的网络结构。生成器使用了简单的多层感知机(MLP)结构,输入是随机噪声,输出是与真实数据维度相同的样本。判别器同样使用MLP结构,输出是一个概率值,表示输入样本是真实样本的概率。

python 复制代码
class Generator(nn.Module):
    def __init__(self):
        super(Generator, self).__init__()
        self.model = nn.Sequential(
            nn.Linear(10, 16),
            nn.ReLU(),
            nn.Linear(16, 32),
            nn.ReLU(),
            nn.Linear(32, 4),
            nn.Tanh()
        )

    def forward(self, x):
        return self.model(x)

class Discriminator(nn.Module):
    def __init__(self):
        super(Discriminator, self).__init__()
        self.model = nn.Sequential(
            nn.Linear(4, 32),
            nn.LeakyReLU(0.2),
            nn.Linear(32, 16),
            nn.LeakyReLU(0.2),
            nn.Linear(16, 1),
            nn.Sigmoid()
        )

    def forward(self, x):
        return self.model(x)

3. 训练过程

在训练过程中,我交替更新生成器和判别器的参数。每一步中,首先用真实数据和生成数据训练判别器,然后用生成数据训练生成器。通过这种方式,两个网络不断对抗,逐渐提升性能。

python 复制代码
# 定义损失函数和优化器
criterion = nn.BCELoss()
g_optimizer = optim.Adam(generator.parameters(), lr=0.0002, betas=(0.5, 0.999))
d_optimizer = optim.Adam(discriminator.parameters(), lr=0.0002, betas=(0.5, 0.999))

# 训练循环
for epoch in range(10000):
    for i, (real_data,) in enumerate(dataloader):
        # 训练判别器
        d_optimizer.zero_grad()
        real_output = discriminator(real_data)
        d_loss_real = criterion(real_output, torch.ones_like(real_output))
        
        noise = torch.randn(real_data.size(0), 10)
        fake_data = generator(noise).detach()
        fake_output = discriminator(fake_data)
        d_loss_fake = criterion(fake_output, torch.zeros_like(fake_output))
        
        d_loss = d_loss_real + d_loss_fake
        d_loss.backward()
        d_optimizer.step()

        # 训练生成器
        g_optimizer.zero_grad()
        fake_data = generator(noise)
        fake_output = discriminator(fake_data)
        g_loss = criterion(fake_output, torch.ones_like(fake_output))
        g_loss.backward()
        g_optimizer.step()

    if (epoch + 1) % 1000 == 0:
        print(f"Epoch [{epoch+1}/10000], Discriminator Loss: {d_loss.item():.4f}, Generator Loss: {g_loss.item():.4f}")

4. 生成结果与可视化

训练完成后,我使用生成器生成了一些新的样本,并将它们与真实样本进行了可视化对比。从结果可以看出,生成器生成的样本在分布上与真实样本较为接近,说明GAN模型在一定程度上成功地学习了数据的分布。

python 复制代码
# 生成新样本
with torch.no_grad():
    noise = torch.randn(50, 10)
    generated_data_scaled = generator(noise)

# 逆向转换回原始尺度
generated_data = scaler.inverse_transform(generated_data_scaled.numpy())
real_data_original_scale = scaler.inverse_transform(X_scaled)

# 可视化对比
fig, axes = plt.subplots(2, 2, figsize=(12, 10))
fig.suptitle('真实数据 vs. GAN生成数据 的特征分布对比', fontsize=16)
feature_names = iris.feature_names

for i, ax in enumerate(axes.flatten()):
    ax.hist(real_data_original_scale[:, i], bins=10, density=True, alpha=0.6, label='Real Data')
    ax.hist(generated_data[:, i], bins=10, density=True, alpha=0.6, label='Generated Data')
    ax.set_title(feature_names[i])
    ax.legend()

plt.tight_layout(rect=[0, 0.03, 1, 0.95])
plt.show()

三、学习总结

通过这次实践,我对GAN的工作原理有了更深入的理解。GAN的核心在于生成器和判别器的对抗机制,这种机制使得模型能够生成高质量的样本。在实际应用中,GAN不仅可以用于图像生成,还可以用于数据增强、风格迁移等任务。

然而,GAN的训练过程也存在一些挑战。例如,生成器和判别器的平衡很难把握,如果其中一个网络过于强大,可能会导致训练失败。此外,GAN的训练过程通常需要大量的计算资源和时间。

在未来的学习中,我计划探索更多GAN的变体,如WGAN、DCGAN等,以更好地理解和应用生成对抗网络。同时,我也希望能够将GAN应用于更复杂的任务中,例如图像生成和视频生成,进一步提升我的深度学习技能。

@浙大疏锦行

相关推荐
Rsun045511 分钟前
AI智能体学习路线
人工智能·学习
charlie11451419111 分钟前
通用GUI编程技术——Win32 原生编程实战(十六)——Visual Studio 资源编辑器使用指南
开发语言·c++·ide·学习·gui·visual studio·win32
知识分享小能手17 分钟前
MongoDB入门学习教程,从入门到精通,MongoDB查询(4)
数据库·学习·mongodb
weixin_4093831217 分钟前
godot等轴视角tilemaplayer的学习 isocheric的素材xy大小怎么调
学习·游戏引擎·godot
2201_754864781 小时前
学习日记(2026年3月23日)
学习
wheelmouse77881 小时前
网络排查基础与实战指南:Ping 与 Telnet
开发语言·网络·php
dulu~dulu2 小时前
算法---寻找和为K的子数组
笔记·python·算法·leetcode
OxyTheCrack2 小时前
深入浅出TCP拥塞控制技术
网络·tcp/ip
编程之升级打怪2 小时前
用Python语言实现简单的Redis缓冲数据库驱动库
redis·python
龚礼鹏2 小时前
使用Perfetto进行Settings中网络热点开启后anr分析的整体流程记录
网络