第一部分:基础环境搭建与安装
1. 从Git克隆安装ComfyUI
这是获取最新官方代码的最佳方式。
-
打开命令行(CMD或PowerShell)。
-
克隆仓库 :执行以下命令,这会在当前目录创建
ComfyUI文件夹。bash
git clone https://github.com/comfyanonymous/ComfyUI.git cd ComfyUI -
创建并激活虚拟环境(强烈推荐,避免包冲突):
bash
# 创建虚拟环境 python -m venv venv # 激活虚拟环境 # Windows: venv\Scripts\activate # Linux/Mac: # source venv/bin/activate -
安装依赖:使用国内镜像加速安装所有必需的Python包。
bash
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
2. PyTorch与CUDA的专属安装(关键步骤)
由于显卡是Turing架构,需安装匹配的CUDA 12.x版本以获得最佳兼容性。
-
卸载可能存在的旧版本(如有):
bash
pip uninstall torch torchvision torchaudio -
安装定制版PyTorch :前往 PyTorch官网,选择以下配置生成安装命令:
-
PyTorch Build: Stable (2.x.x)
-
Your OS: Windows
-
Package: Pip
-
Language: Python
-
Compute Platform : CUDA 12.1 (或12.6,需与你的NVIDIA驱动版本匹配)
-
-
复制生成的命令并执行,例如:
bash
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121 -
验证安装:运行以下Python代码,确保一切正常。
python
import torch print(f"PyTorch版本: {torch.__version__}") print(f"CUDA是否可用: {torch.cuda.is_available()}") # 应返回 True print(f"GPU型号: {torch.cuda.get_device_name(0)}") # 应显示你的2080 Ti print(f"是否报告支持bf16: {torch.cuda.is_bf16_supported()}") # 对20系通常为 False
第二部分:模型、插件与节点管理
1. 模型下载与管理教程
核心原则:2080 Ti 22G的硬件,模型格式首选 FP16,避开 BF16。
| 模型类型 | 推荐存放路径 | 下载与使用要点 |
|---|---|---|
| 检查点 (Checkpoint) | ComfyUI/models/checkpoints/ |
1. 从CivitAI、Hugging Face下载。 2. 文件名认准 fp16、F16 或 float16 ,避开 bf16。 3. 22G大显存优势:可加载多个模型或运行极高分辨率。 |
| LoRA/LyCORIS | ComfyUI/models/loras/ |
1. 同样优先下载fp16格式。 2. 在ComfyUI中通过 "Load LoRA" 节点加载,并与主模型连接。 |
| VAE | ComfyUI/models/vae/ |
1. 部分模型自带,也可单独下载。 2. 在 "KSampler" 节点或 "VAE Loader" 节点中选择。 |
| ControlNet | ComfyUI/models/controlnet/ |
1. 下载.safetensors或.pth文件。 2. 使用 "Apply ControlNet" 等节点接入工作流。 |
2. 插件(自定义节点)安装教程
插件极大地扩展了ComfyUI的功能。
-
安装方法:
-
通过ComfyUI Manager(推荐):这是管理插件的"应用商店"。
-
安装:在ComfyUI根目录下运行
git clone https://github.com/ltdrdata/ComfyUI-Manager.git custom_nodes/ComfyUI-Manager,然后重启ComfyUI。界面会出现一个"Manager"按钮。 -
使用:在Manager界面中浏览、一键安装/更新/删除插件。
-
-
手动安装 :将插件项目的Git仓库克隆到
ComfyUI/custom_nodes/目录下,然后重启ComfyUI。bash
cd custom_nodes git clone <插件仓库的git地址>
-
-
维护与更新:
-
通过Manager更新:在Manager的"Update"标签页可一键更新所有已安装插件。
-
手动更新 :进入插件目录(如
custom_nodes/ComfyUI-Manager),执行git pull。
-
3. 节点(Node)使用基础教程
节点是构建工作流的基本单元。
-
添加节点 :在ComfyUI界面中右键点击空白处,通过搜索或分类菜单选择节点。
-
连接节点 :从一个节点的输出点 拖动到另一个节点的输入点。
-
核心节点类型:
-
加载器 (Loader) :如
Load Checkpoint、Load LoRA,负责载入模型。 -
采样器 (Sampler) :如
KSampler,是图像生成的核心引擎,设置步数、提示词影响等。 -
编码/解码器 (Encoder/Decoder) :如
VAE Encode、VAE Decode,负责在图像和潜在空间之间转换。 -
图像处理 (Image Processing) :如
Image Scale、Blur,用于后处理。 -
工具 (Utility) :如
Primitive(输入文本或数字)、Note(添加注释),用于辅助。
-
第三部分:工作流与高级维护
1. 工作流下载、安装与使用
工作流(.json或.png文件)是保存的节点连接图。
-
下载工作流 :从CivitAI、"ComfyUI工作流分享"等社区找到喜欢的效果图,下载其附带的
.json文件或.png文件(工作流信息可能内嵌在图片中)。 -
加载工作流:
-
打开ComfyUI,点击右侧的 "Load" 按钮。
-
选择下载的
.json文件,或拖拽包含工作流的.png图片到界面。 -
系统会自动重建节点图。
-
-
关键步骤 :加载后,务必检查所有红色(未连接)或黄色的警告节点。通常需要:
-
根据你本地的模型路径,重新选择对应的检查点、LoRA等。
-
确认所有必需节点都已正确连接。
-
2. 整体更新与维护教程
保持系统最新可以修复错误并获取新功能。
| 更新对象 | 更新方法 | 频率与建议 |
|---|---|---|
| ComfyUI 主程序 | 在ComfyUI根目录执行: git pull 如有冲突,可先备份custom_nodes和models,然后重新git clone。 |
稳定即可,无需频繁更新。重大版本发布或需要新功能时再更新。 |
| 自定义节点 (插件) | 使用 ComfyUI Manager 一键更新最方便。 | 可定期在Manager中检查更新。更新前注意查看插件说明,避免不兼容。 |
| Python 依赖包 | 在激活的虚拟环境中执行: pip install -r requirements.txt --upgrade |
在主程序更新后,或遇到奇怪的模块错误时执行。 |
| 模型文件 | 手动从模型发布页下载新版覆盖。 | 按需更新,新版本可能带来质量提升或新特性。 |
第四部分:针对2080 Ti 22G的优化配置与启动
在 extra_model_paths.yaml 中配置好模型路径后,推荐使用以下启动命令:
bash
python main.py --listen 0.0.0.0 --port 8188 --force-fp16 --cuda-device 0
启动参数解析:
-
--listen 0.0.0.0:允许局域网内其他设备访问ComfyUI的Web界面。 -
--port 8188:指定访问端口。 -
--force-fp16:强制使用FP16精度,这是针对你显卡的核心优化,能提升速度并增加稳定性。 -
--cuda-device 0:指定使用第一块GPU(你的2080 Ti)。
总结:从安装到日常使用的流程
-
安装 :
git clone→ 创建虚拟环境 → 安装依赖和正确的PyTorch。 -
配置 :创建模型文件夹 → 下载
FP16格式模型放入对应位置 → 可选安装ComfyUI Manager。 -
启动 :使用
--force-fp16参数启动。 -
使用:加载工作流 → 检查并替换为本地的模型 → 生成图像。
-
维护:定期通过Manager更新插件,按需更新主程序和模型。