【从零开始使用系列】StyleGAN2:开源图像生成网络——环境搭建与基础使用篇(附大量测试图)

StyleGAN2 是英伟达团队 NVIDIA 提出的生成对抗网络(GAN)的一种改进版本

它通过创新的网络架构 ,能够生成细节丰富、逼真的图像,特别在高频细节(如皮肤纹理、光照等)的表现上表现卓越。与传统 GAN 相比,StyleGAN2 显著减少了生成图像中的伪影,提升了图像质量,并支持在不同图像层次上精细控制风格,提供了更加自然和多样化的生成效果。

StyleGAN2 在生成高分辨率图像、训练稳定性和数据稀缺情况下的表现也非常出色。

GitHub源码地址https://github.com/NVlabs/stylegan2-ada-pytorch


本部分专注于对该开源项目的环境搭建和官方教程的基本使用实验测试。

一、基础环境搭建

下图是官方环境要求。

官方要求 python3.7 + Pytorch1.7.1

创建虚拟环境

python 复制代码
# 创建python3.7虚拟环境
conda create -n stylegan2 python=3.7 -y

conda activate stylegan2

安装Pytorch1.7.1

python 复制代码
# pip官方指令安装pytorch1.7.1-cu11.0
pip install torch==1.7.1+cu110 torchvision==0.8.2+cu110 torchaudio==0.7.2 -f https://download.pytorch.org/whl/torch_stable.html

还有一些其他依赖库安装

python 复制代码
# 官方指定其他依赖库
pip install click requests tqdm pyspng ninja imageio-ffmpeg==0.4.3

二、源码与官方训练模型参数下载

GitHub源码地址https://github.com/NVlabs/stylegan2-ada-pytorch

下载源码保存到本地项目。

为了使用styleGAN2,还需要下载官方训练好的模型参数,可以在 READ_ME 中的数据中心地址中的pretrained处下载。

可以访问以下地址:https://nvlabs-fi-cdn.nvidia.com/stylegan2-ada-pytorch/pretrained/

将下载好的pkl模型参数在项目下新建 weights 文件夹保存(这里下载了四个模型,更多测试可自行下载)

三、官方模型基础使用

官方直接提供了便捷的指令使用方式,只需配置输出目录、模型参数地址和一些参数即可。

下面来解释参数如何配置,并实验相关指令生成图片的效果。

首先可以使用 --help 来查看相关指令中的参数如何配置。

python 复制代码
# 查看参数含义及如何配置
python generate.py --help

1.必要参数指令使用

在上图配置参数中结尾带有 【required】是必须输入的参数,即模型地址和输出地址。还有一个必须要输入的是**--seeds** ,这个代表图片生成的随机种子,输入几个数就生成几张图片。下面先实验只输入必须的参数,其余默认的结果。

python 复制代码
outpath = '~/'  # 自定义输出的路径
modelpath = '~/weights/xxx.pkl' # 输入下载的模型保存路径

# 默认参数使用,生成1张图
python generate.py --outdir=outpath --network=modelpath --seeds=42

# 默认参数使用,生成3张图
python generate.py --outdir=outpath --network=modelpath --seeds=42,54,68

# 默认参数使用,生成连续区间数量张图
python generate.py --outdir=outpath --network=modelpath --seeds=42-44 

在 windows 系统中运行时,可能会出现以下报错,但没有影响到最后结果生成,因此暂不处理该问题,可忽视。

下面看看具体实验结果。如果想生成不同对象的图像,如猫、狗、人像等,只需修改模型参数到对应的模型即可。下面生成的图片随机数都选择42-44区间。

猫生成图。

狗生成图。

艺术品人像生成图。

人脸生成图。

2.可选参数指令使用

官方指令使用还提供了一些可选参数的输入使用,现在来测试这些参数的意义。

首先是一个非常重要的可选参数 --trunc ,其用于平衡图片生成的质量和多样性,其默认值为1,数值越低,图像质量水平越高;数值越高,图像随机性越大

现在来测试不同值的 trunc 参数输入后的输出效果。

下面的实验结果以默认值 --trunc=1.0 为基准对照组可视化结果。此处结果都是基于猫生成模型。 且随机种子保持42不变。

python 复制代码
# 默认值trunc=1.0
python generate.py --outdir=~\test1.0 --network=~\weights\afhqcat.pkl --seeds=42 --trunc=1.0

# 减小值trunc=0.5
python generate.py --outdir=~\test0.5 --network=~\weights\afhqcat.pkl --seeds=42 --trunc=0.5

# 减小值trunc=0.1
python generate.py --outdir=~\test0.1 --network=~\weights\afhqcat.pkl --seeds=42 --trunc=0.1

# 增大值trunc=1.5
python generate.py --outdir=~\test1.5 --network=~\weights\afhqcat.pkl --seeds=42 --trunc=1.5

# 增大值trunc=2.0
python generate.py --outdir=~\test2.0 --network=~\weights\afhqcat.pkl --seeds=42 --trunc=2.0

上面多图结果可以看到,trunc参数的值越低,图片质量效果越好,越于现实近似。但是如果trunc值太低了,会导致图片生成多样性显著下降。下图可见。下图使用trunc=0.1下的多种随机种子(42,43,44)生成图。

--noise-mode中参数选择可以是const(稳定模式)或random(随机模式),实验效果图两者差异不大,可能是图片色泽亮度的细微变化,这里不展示了,使用默认const即可。

而另一个使用的方法 python style_mixing.py 实际就是多图按行按列的组合效果图,这里也不赘述,可以自行测试,使用起来较为简单。


在下一章节,将介绍 StyleGAN 的自建数据集训练微调。

相关推荐
JEECG低代码平台19 分钟前
【免费开源】积木JimuBI大屏集成eladmin
开源
小众AI1 小时前
Tabby - 开源的自托管 AI 编码助手
人工智能·开源·ai编程
lida20031 小时前
Open FPV VTX开源之ardupilot配置
linux·开源·openipc·msposd
lida20031 小时前
Open FPV VTX开源之betaflight配置
linux·开源·betaflight·openipc·msposd
一只搬砖的猹1 小时前
软件项目开发关键节点——开源合规扫描
测试工具·开源·github·apache·license·软件项目·开源合规
hikktn1 小时前
【开源宝藏】blade-tool AOP请求日志打印
开源
CV金科5 小时前
freertos的基础(二)内存管理:堆和栈
stm32·开源·arm·freertos·risc-v
三天不学习6 小时前
【Delete 删除数据语法合集】.NET开源ORM框架 SqlSugar 系列
后端·开源·.net·orm·微软技术·sqlsugar
时光追逐者6 小时前
在 .NET 9 中使用 Scalar 替代 Swagger
开源·c#·.net·.netcore·微软技术
飞哥不鸽6 小时前
《leetcode-runner》如何手搓一个debug调试器——引言
算法·leetcode·开源·调试器·插件开发·项目架构