第五十九篇-ComfyUI+V100-32G+运行Flux Schnell

环境

复制代码
系统:CentOS-7
CPU : E5-2680V4 14核28线程
内存:DDR4 2133 32G * 2
显卡:Tesla V100-32G【PG503】 (水冷)
驱动: 535
CUDA: 12.2
ComfyUI version: 0.4.0
ComfyUI frontend version: 1.34.8

系统软件信息

复制代码
系统信息
OS
linux
Python Version
3.12.12 | packaged by Anaconda, Inc. | (main, Oct 21 2025, 20:16:04) [GCC 11.2.0]
Embedded Python
false
Pytorch Version
2.9.1+cu128
Arguments
main.py --listen --port 8188 --cuda-malloc --lowvram
RAM Total
62.68 GB
RAM Free
60.25 GB

启动

bash 复制代码
python main.py --listen --port 8188 --cuda-malloc --lowvram

使用模版

Flux Schnell完整版文生图

下载模文件并按提示的要求放入目录中

可以使用迅雷单独下载文件

bash 复制代码
https://huggingface.co/Comfy-Org/Lumina_Image_2.0_Repackaged/resolve/main/split_files/vae/ae.safetensors
https://huggingface.co/comfyanonymous/flux_text_encoders/resolve/main/clip_l.safetensors
https://huggingface.co/comfyanonymous/flux_text_encoders/resolve/main/t5xxl_fp16.safetensors
https://huggingface.co/Comfy-Org/flux1-schnell/resolve/main/flux1-schnell.safetensors

如果没有Manager情况下可以重启ComfyUI

运行结果

第一次时间长一点

时间

bash 复制代码
loaded completely; 30782.57 MB usable, 22680.62 MB loaded, full load: True
100%|████████████████████████████████████████████████████████████████████████| 4/4 [00:04<00:00,  1.16s/it]
Requested to load AutoencodingEngine
Unloaded partially: 78.83 MB freed, 22601.80 MB remains loaded, 54.02 MB buffer reserved, lowvram patches: 0
loaded completely; 411.45 MB usable, 319.75 MB loaded, full load: True
Prompt executed in 34.40 seconds
got prompt
loaded completely; 30387.70 MB usable, 22680.62 MB loaded, full load: True
100%|████████████████████████████████████████████████████████████████████████| 4/4 [00:04<00:00,  1.10s/it]
Prompt executed in 6.17 seconds

GPU

bash 复制代码
Mon Dec 15 23:04:28 2025
+---------------------------------------------------------------------------------------+
| NVIDIA-SMI 535.129.03             Driver Version: 535.129.03   CUDA Version: 12.2     |
|-----------------------------------------+----------------------+----------------------+
| GPU  Name                 Persistence-M | Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp   Perf          Pwr:Usage/Cap |         Memory-Usage | GPU-Util  Compute M. |
|                                         |                      |               MIG M. |
|=========================================+======================+======================|
|   0  Tesla PG503-216                On  | 00000000:04:00.0 Off |                    0 |
| N/A   34C    P0             237W / 250W |  23824MiB / 32768MiB |    100%      Default |
|                                         |                      |                  N/A |
+-----------------------------------------+----------------------+----------------------+

总结

复制代码
1.GPU 占用2.5G
2.GPU 100%
3.6 秒左右一张1024*1024
4.还是挺好用的
相关推荐
小陈工21 分钟前
Python Web开发入门(十七):Vue.js与Python后端集成——让前后端真正“握手言和“
开发语言·前端·javascript·数据库·vue.js·人工智能·python
墨染天姬5 小时前
【AI】端侧AIBOX可以部署哪些智能体
人工智能
AI成长日志5 小时前
【Agentic RL】1.1 什么是Agentic RL:从传统RL到智能体学习
人工智能·学习·算法
2501_948114245 小时前
2026年大模型API聚合平台技术评测:企业级接入层的治理演进与星链4SAPI架构观察
大数据·人工智能·gpt·架构·claude
小小工匠5 小时前
LLM - awesome-design-md 从 DESIGN.md 到“可对话的设计系统”:用纯文本驱动 AI 生成一致 UI 的新范式
人工智能·ui
黎阳之光5 小时前
黎阳之光:视频孪生领跑者,铸就中国数字科技全球竞争力
大数据·人工智能·算法·安全·数字孪生
小超同学你好5 小时前
面向 LLM 的程序设计 6:Tool Calling 的完整生命周期——从定义、决策、执行到观测回注
人工智能·语言模型
智星云算力6 小时前
本地GPU与租用GPU混合部署:混合算力架构搭建指南
人工智能·架构·gpu算力·智星云·gpu租用
jinanwuhuaguo6 小时前
截止到4月8日,OpenClaw 2026年4月更新深度解读剖析:从“能力回归”到“信任内建”的范式跃迁
android·开发语言·人工智能·深度学习·kotlin
xiaozhazha_6 小时前
效率提升80%:2026年AI CRM与ERP深度集成的架构设计与实现
人工智能