【从零开始使用系列】StyleGAN2:开源图像生成网络——环境搭建与基础使用篇(附大量测试图)

StyleGAN2 是英伟达团队 NVIDIA 提出的生成对抗网络(GAN)的一种改进版本

它通过创新的网络架构 ,能够生成细节丰富、逼真的图像,特别在高频细节(如皮肤纹理、光照等)的表现上表现卓越。与传统 GAN 相比,StyleGAN2 显著减少了生成图像中的伪影,提升了图像质量,并支持在不同图像层次上精细控制风格,提供了更加自然和多样化的生成效果。

StyleGAN2 在生成高分辨率图像、训练稳定性和数据稀缺情况下的表现也非常出色。

GitHub源码地址https://github.com/NVlabs/stylegan2-ada-pytorch


本部分专注于对该开源项目的环境搭建和官方教程的基本使用实验测试。

一、基础环境搭建

下图是官方环境要求。

官方要求 python3.7 + Pytorch1.7.1

创建虚拟环境

python 复制代码
# 创建python3.7虚拟环境
conda create -n stylegan2 python=3.7 -y

conda activate stylegan2

安装Pytorch1.7.1

python 复制代码
# pip官方指令安装pytorch1.7.1-cu11.0
pip install torch==1.7.1+cu110 torchvision==0.8.2+cu110 torchaudio==0.7.2 -f https://download.pytorch.org/whl/torch_stable.html

还有一些其他依赖库安装

python 复制代码
# 官方指定其他依赖库
pip install click requests tqdm pyspng ninja imageio-ffmpeg==0.4.3

二、源码与官方训练模型参数下载

GitHub源码地址https://github.com/NVlabs/stylegan2-ada-pytorch

下载源码保存到本地项目。

为了使用styleGAN2,还需要下载官方训练好的模型参数,可以在 READ_ME 中的数据中心地址中的pretrained处下载。

可以访问以下地址:https://nvlabs-fi-cdn.nvidia.com/stylegan2-ada-pytorch/pretrained/

将下载好的pkl模型参数在项目下新建 weights 文件夹保存(这里下载了四个模型,更多测试可自行下载)

三、官方模型基础使用

官方直接提供了便捷的指令使用方式,只需配置输出目录、模型参数地址和一些参数即可。

下面来解释参数如何配置,并实验相关指令生成图片的效果。

首先可以使用 --help 来查看相关指令中的参数如何配置。

python 复制代码
# 查看参数含义及如何配置
python generate.py --help

1.必要参数指令使用

在上图配置参数中结尾带有 【required】是必须输入的参数,即模型地址和输出地址。还有一个必须要输入的是**--seeds** ,这个代表图片生成的随机种子,输入几个数就生成几张图片。下面先实验只输入必须的参数,其余默认的结果。

python 复制代码
outpath = '~/'  # 自定义输出的路径
modelpath = '~/weights/xxx.pkl' # 输入下载的模型保存路径

# 默认参数使用,生成1张图
python generate.py --outdir=outpath --network=modelpath --seeds=42

# 默认参数使用,生成3张图
python generate.py --outdir=outpath --network=modelpath --seeds=42,54,68

# 默认参数使用,生成连续区间数量张图
python generate.py --outdir=outpath --network=modelpath --seeds=42-44 

在 windows 系统中运行时,可能会出现以下报错,但没有影响到最后结果生成,因此暂不处理该问题,可忽视。

下面看看具体实验结果。如果想生成不同对象的图像,如猫、狗、人像等,只需修改模型参数到对应的模型即可。下面生成的图片随机数都选择42-44区间。

猫生成图。

狗生成图。

艺术品人像生成图。

人脸生成图。

2.可选参数指令使用

官方指令使用还提供了一些可选参数的输入使用,现在来测试这些参数的意义。

首先是一个非常重要的可选参数 --trunc ,其用于平衡图片生成的质量和多样性,其默认值为1,数值越低,图像质量水平越高;数值越高,图像随机性越大

现在来测试不同值的 trunc 参数输入后的输出效果。

下面的实验结果以默认值 --trunc=1.0 为基准对照组可视化结果。此处结果都是基于猫生成模型。 且随机种子保持42不变。

python 复制代码
# 默认值trunc=1.0
python generate.py --outdir=~\test1.0 --network=~\weights\afhqcat.pkl --seeds=42 --trunc=1.0

# 减小值trunc=0.5
python generate.py --outdir=~\test0.5 --network=~\weights\afhqcat.pkl --seeds=42 --trunc=0.5

# 减小值trunc=0.1
python generate.py --outdir=~\test0.1 --network=~\weights\afhqcat.pkl --seeds=42 --trunc=0.1

# 增大值trunc=1.5
python generate.py --outdir=~\test1.5 --network=~\weights\afhqcat.pkl --seeds=42 --trunc=1.5

# 增大值trunc=2.0
python generate.py --outdir=~\test2.0 --network=~\weights\afhqcat.pkl --seeds=42 --trunc=2.0

上面多图结果可以看到,trunc参数的值越低,图片质量效果越好,越于现实近似。但是如果trunc值太低了,会导致图片生成多样性显著下降。下图可见。下图使用trunc=0.1下的多种随机种子(42,43,44)生成图。

--noise-mode中参数选择可以是const(稳定模式)或random(随机模式),实验效果图两者差异不大,可能是图片色泽亮度的细微变化,这里不展示了,使用默认const即可。

而另一个使用的方法 python style_mixing.py 实际就是多图按行按列的组合效果图,这里也不赘述,可以自行测试,使用起来较为简单。


在下一章节,将介绍 StyleGAN 的自建数据集训练微调。

相关推荐
蚝油菜花2 小时前
HealthGPT:你的AI医疗助手上线了:支持X光到病理切片,诊断建议+报告生成全自动
人工智能·开源
不一样的信息安全3 小时前
开启开源新时代:DeepSeek引领人工智能技术开放化
人工智能·开源
QQ3596773454 小时前
Github开源AI LLM大语言模型WebUI框架推荐
人工智能·开源·github
说私域5 小时前
利用开源AI智能名片2+1链动模式S2B2C商城小程序构建企业私域流量池的策略与实践
大数据·人工智能·小程序·开源
ITPUB-微风5 小时前
云原生数据抽象与弹性加速:Fluid开源系统的技术解析
云原生·开源
韩仔搭建12 小时前
七星棋牌顶级运营产品全开源修复版源码教程:6端支持,200+子游戏玩法,完整搭建指南(含代码解析)
游戏·开源
customer0818 小时前
【开源免费】基于SpringBoot+Vue.JS个人博客系统(JAVA毕业设计)
java·vue.js·spring boot·后端·开源
customer0819 小时前
【开源免费】基于SpringBoot+Vue.JS打卡健康评测系统(JAVA毕业设计)
java·vue.js·spring boot·后端·开源
BeanInJ20 小时前
当一个后端下载了一个VUE开源项目,怎么开始着手玩一下
前端·vue.js·开源
钱彬 (Qian Bin)1 天前
基于Django+Bootstrap+深度学习 构建商业级人脸识别系统(代码开源)
python·深度学习·django·开源·bootstrap·人脸识别·教程