5090显卡安装与使用DiffSynth-Studio的经验分享(Windows 11环境)50系列通用

大家好!今天我想聊聊我在Windows 11系统上安装和使用DiffSynth-Studio的经历。我的电脑用的是5090显卡,所以特别关注了CUDA的支持。希望我的经验能给你们一些参考,尤其是花了很多钱买了50系列显卡的朋友!


环境设置

创建Conda环境

为了让依赖互不干扰,我先创建了一个独立的Conda环境,名字叫"AI"。操作很简单,直接上命令:

ini 复制代码
conda create -n AI python=3.12

我的环境装在e:\anaconda3\envs\AI,用的是Python 3.12.9。创建的时候,Conda会自动拉一些基础包,比如pipsetuptools之类的,总共大概36.4 MB。系统会问你确认安装,敲个y就行了。搞定后,用conda activate AI激活环境,马上就能用。


DiffSynth-Studio安装

导航到项目目录

安装之前,先确保"AI"环境已经激活:

复制代码
conda activate AI

然后切换到DiffSynth-Studio的项目文件夹。我的在E:\AI\DiffSynth-Studio,你们可以根据自己的路径改一下:

bash 复制代码
e:
cd AI\DiffSynth-Studio

安装项目

到了项目目录后,我用下面这条命令把DiffSynth-Studio装上了:

erlang 复制代码
pip install -e .

这个-e是可编辑模式,装完能直接改代码调试,挺方便的。安装过程会自动下载一堆依赖,比如torchtorchvision什么的。装完后,我用dir一看,多了个diffsynth.egg-info文件夹,说明没问题。

小提醒:装的时候可能会跳个警告,提可编辑安装的未来变化,建议看看官方文档,免得以后踩坑。


初次使用尝试

启动Python,导入模块

装好后,我直接在项目目录下开了Python:

复制代码
python

然后导入了几个核心模块:

python 复制代码
import torch
from diffsynth import ModelManager, SDImagePipeline, download_models

下载模型

接下来要下模型,我跑了这个命令:

python 复制代码
download_models(["AingDiffusion_v12"])

模型会存到E:\AI\DiffSynth-Studio\models\stable_diffusion,文件名是aingdiffusion_v12.safetensors,大概1.99 GB,下载还挺快的。

加载模型(第一次翻车)

我试着加载模型,想用GPU跑:

python 复制代码
model_manager = ModelManager(torch_dtype=torch.float16, device="cuda")
model_manager.load_models(["models/stable_diffusion/aingdiffusion_v12.safetensors"])

结果报错了:

vbnet 复制代码
AssertionError: Torch not compiled with CUDA enabled

一看就知道,默认装的PyTorch没带CUDA支持,GPU完全用不上。


解决CUDA问题

装支持CUDA的PyTorch

为了用上5090显卡,我决定装个支持CUDA的PyTorch。这次我选了nightly版,命令是:

css 复制代码
pip3 install --pre torch torchvision --index-url https://download.pytorch.org/whl/nightly/cu128 -I

这条命令装的是支持CUDA 12.8的版本,装完后GPU就能跑了。装之前,记得确认下显卡驱动和CUDA版本对得上,我的5090跟12.8没问题。

装完后,我又进了Python,导入了torch,这次没报错,说明CUDA搞定了。


成功用起来

加载模型(成功)

有了CUDA支持,我重新加载模型:

python 复制代码
model_manager = ModelManager(torch_dtype=torch.float16, device="cuda")
model_manager.load_models(["models/stable_diffusion/aingdiffusion_v12.safetensors"])

这次顺利通过,控制台还显示了加载的模型名,太爽了!

生成图像

然后我建了个图像生成管道:

python 复制代码
pipe = SDImagePipeline.from_model_manager(model_manager)

为了让结果能复现,我设了个随机种子:

python 复制代码
torch.manual_seed(0)

接着就生成图像了:

python 复制代码
image = pipe(
    prompt="masterpiece, best quality, a girl with long silver hair",
    negative_prompt="worst quality, low quality, monochrome, zombie, interlocked fingers, Aissist, cleavage, nsfw",
    height=512, width=512, num_inference_steps=80,
)

80步推理,5090显卡跑下来也就4秒左右,效率真高!最后把图像存下来:

python 复制代码
image.save("image.jpg")

打开一看,效果还不错,银发少女很有感觉!


总结与建议

  1. 环境管理

    用Conda弄个独立环境,省得依赖打架,干净又省心。

  2. 安装DiffSynth-Studio

    可编辑模式装上,调试改代码都方便,推荐试试。

  3. CUDA支持

    默认PyTorch没CUDA,得自己装个支持的版本。我用的是nightly版,也可以用稳定版,命令在这:

    perl 复制代码
    pip install torch torchvision --index-url https://download.pytorch.org/whl/cu128

    记得核对显卡和CUDA版本,别装错了。

  4. 实际使用

    模型下载和加载很简单,装好管道就能生成图像。5090显卡加速效果很明显,生成速度快得飞起。

总之,这次折腾下来,感觉DiffSynth-Studio还是挺好用的。希望我的经验能帮到你们,有啥问题欢迎随时聊!

相关推荐
乌恩大侠12 天前
【东枫科技】使用LabVIEW进行NVIDIA CUDA GPU 开发
人工智能·科技·labview·nvidia·usrp
yangtzi14 天前
Windows Server 2025开启GPU分区(GPU-P)部署DoraCloud云桌面
nvidia·hyper-v·gpu-p·doracloud
乌恩大侠17 天前
【东枫科技】代理销售 NVIDIA DGX Spark 您的桌上有一台 Grace Blackwell AI 超级计算机。
大数据·人工智能·科技·spark·nvidia
乌恩大侠18 天前
【东枫科技】代理英伟达产品:DPU
人工智能·科技·nvidia·6g·usrp
乌恩大侠21 天前
【东枫科技】AMD / Xilinx Alveo™ V80计算加速器卡
人工智能·科技·5g·nvidia·6g·usrp
落樱弥城1 个月前
Nvidia显卡架构演进
人工智能·ai·gpu·nvidia·gpgpu
Panesle1 个月前
英伟达开源253B语言模型:Llama-3.1-Nemotron-Ultra-253B-v1 模型情况
人工智能·语言模型·llama·nvidia
Panesle1 个月前
英伟达Llama-3.1-Nemotron-Ultra-253B-v1语言模型论文快读:FFN Fusion
人工智能·语言模型·llama·nvidia
mortimer2 个月前
5090 装机后无法使用 GPU 加速?别急,这里有解决办法!
github·gpu·nvidia
kcarly2 个月前
TensorRT 有什么特殊之处
ai·ai绘画·nvidia·tensorrt