ComfyUI 视频创建工作流完整指南
从入门到精通,全面掌握 ComfyUI 视频生成工作流的搭建与使用。
📑 目录
一、ComfyUI 工作流基础
1.1 ComfyUI 是什么?
简单定义:ComfyUI 是一个"模块化积木工厂",将 AI 视频/图像生成流程拆解成独立的节点,通过连线自由组合。
与 A1111 的区别:
| 特性 | A1111 WebUI | ComfyUI |
|---|---|---|
| 界面 | 封装好的控制面板 | 节点式可视化编程 |
| 灵活性 | 固定流程,只能调参数 | 完全自定义流程 |
| 显存效率 | 一般 | 优秀(支持分块卸载) |
| 新模型支持 | 慢(1-4 周) | 快(当天) |
| 工作流分享 | 困难 | 一键导出 JSON |
| 学习曲线 | 平缓 | 陡峭但回报高 |
1.2 工作流核心原理
数据流图(Data Flow Graph):
节点 A (输出) ──→ 节点 B (输入)
│
↓
节点 C (执行)
│
↓
节点 D (输出结果)
执行逻辑:
-
每个节点有输入口(Input)和输出口(Output)
-
数据沿着连线从一个节点流向下一个节点
-
只有当所有必填输入就绪,节点才会执行
-
执行完成后将结果传递给下一个节点
1.3 8 大类核心节点
1. Load Checkpoint(加载检查点)
-
功能 :加载
.ckpt或.safetensors模型 -
输出 :
model、clip、vae三个对象 -
示例节点 :
CheckpointLoaderSimple
2. CLIP Text Encode(提示词编码)
-
功能:将正向/负向提示词转成条件向量
-
输入:文本提示词 + CLIP 模型
-
输出 :
CONDITIONING -
示例节点 :
CLIPTextEncode
3. Empty Latent Image / Image to Latent
-
功能:
-
EmptyLatentImage:生成空白潜空间(随机噪声) -
ImageToLatent:将图片转换为潜空间
-
-
输出 :
LATENT
4. KSampler / KSampler Advanced(核心采样器)
-
功能:执行去噪生成
-
输入:
-
model:模型 -
positive:正向条件 -
negative:负向条件 -
latent_image:初始潜空间 -
sampler配置:步数、CFG、采样方法
-
-
输出 :
LATENT(去噪后的潜空间)
5. VAE Decode(潜空间→图片)
-
功能:将潜空间解码为可见图片
-
输入 :
samples(LATENT)+vae -
输出 :
IMAGE
6. Save Image(保存图片)
-
功能:保存生成的图片
-
输入 :
images -
输出:无(终端节点)
7. ControlNet 相关节点
-
功能:应用 ControlNet 控制
-
常用节点:
-
ControlNetLoader -
ControlNetApply -
ControlNetApplyAdvanced
-
8. LoRA 加载节点
-
功能:加载和融合 LoRA 模型
-
示例节点 :
LoRALoader
二、视频生成核心节点
2.1 基础视频生成节点
AnimateDiff 系列
AnimateDiff 是什么:
-
基于 Stable Diffusion 的视频生成框架
-
通过添加运动模块(Motion Module)实现视频生成
-
支持文生视频、图生视频
核心节点:
1. AnimateDiffLoader
- 功能:加载 AnimateDiff 运动模块
- 输入:model, motion_model
- 输出:model(带运动能力)
2. AnimateDiffCombine
- 功能:将多帧潜空间合并为视频
- 输入:frames(多帧 LATENT)
- 输出:VIDEO
3. AnimateDiffSlidingWindow
- 功能:滑动窗口优化长视频生成
- 适用:超过 16 帧的视频
Stable Video Diffusion (SVD)
SVD 节点组:
1. SVDLoader
- 加载 SVD 模型
- 输出:svd_model
2. SVD_img2vid_Conditioning
- 输入:图片 + 参数(motion_bucket_id, fps, augmentation_level)
- 输出:positive, negative, latent
3. VideoLinearCFGGuidance
- SVD 专用的 CFG 引导节点
4. SaveAnimatedWEBP / SaveAnimatedPNG
- 保存为动画 WEBP 或 PNG 序列
2.2 视频控制节点
ControlNet for Video
1. ControlNetLoader
- 加载视频专用 ControlNet 模型
- 支持:OpenPose、Depth、Canny、SoftEdge
2. ControlNetApply (每帧应用)
- 在视频的每一帧上应用 ControlNet
- 保持时间一致性
3. RIFE VFI
- 视频帧插值
- 提升视频流畅度
视频编辑节点
1. Video Combine
- 合并多个视频片段
2. Video Split
- 将视频分割为片段
3. Video Resize
- 调整视频分辨率
4. Color Grading
- 视频调色
2.3 视频增强节点
1. Frame Interpolation (RIFE/AMT)
- 帧插值,提升帧率
- 30fps → 60fps
2. Video Upscale
- 视频超分辨率
- 720p → 1080p → 4K
3. Video Stabilization
- 视频防抖
4. Motion Blur
- 添加运动模糊
三、经典视频工作流
3.1 文生视频工作流(Text-to-Video)
工作流结构:
graph LR
A[Load Checkpoint] --> B[CLIP Text Encode Positive]
A --> C[CLIP Text Encode Negative]
A --> D[VAE]
B --> E[KSampler]
C --> E
F[Empty Latent Image] --> E
G[AnimateDiff Loader] --> E
E --> H[VAE Decode]
H --> I[Video Combine]
I --> J[Save Video]
节点配置:
{
"Load Checkpoint": {
"ckpt_name": "sd15_checkpoint.safetensors"
},
"AnimateDiff Loader": {
"motion_model": "mm_sd15_v3.safetensors",
"frame_rate": 8,
"frame_count": 16
},
"CLIP Text Encode Positive": {
"text": "a beautiful landscape, mountains, lake, sunset, cinematic"
},
"CLIP Text Encode Negative": {
"text": "ugly, deformed, noisy, blurry, low quality"
},
"Empty Latent Image": {
"width": 512,
"height": 512,
"batch_size": 16
},
"KSampler": {
"steps": 20,
"cfg": 7.5,
"sampler_name": "euler_a",
"scheduler": "normal"
}
}
参数说明:
-
frame_count:视频帧数(通常 16、24、32) -
frame_rate:帧率(8-16 fps) -
batch_size:与 frame_count 一致
3.2 图生视频工作流(Image-to-Video)
工作流结构:
Load Image → Image To Latent → KSampler → VAE Decode → Save Video
↑
AnimateDiff Loader
SVD 图生视频流程:
1. Load Checkpoint (SVD 模型)
2. Load Image (输入图片)
3. SVD_img2vid_Conditioning
- motion_bucket_id: 127
- fps: 6
- augmentation_level: 0
4. VideoLinearCFGGuidance
5. KSampler
6. VAE Decode
7. Save Animated WEBP
参数建议:
-
motion_bucket_id:控制运动幅度(100-200) -
fps:输出视频帧率(6-24) -
augmentation_level:增强级别(0-1)
3.3 ControlNet 视频工作流
多 ControlNet 组合:
Load Image → Preprocessor (OpenPose) → ControlNet Apply
↓
Preprocessor (Depth) → ControlNet Apply
↓
Preprocessor (Canny) → ControlNet Apply
↓
KSampler → Video Output
节点配置:
{
"ControlNetLoader_1": {
"control_net_name": "control_v11p_sd15_openpose.pth"
},
"ControlNetLoader_2": {
"control_net_name": "control_v11f1p_sd15_depth.pth"
},
"ControlNetLoader_3": {
"control_net_name": "control_v11p_sd15_canny.pth"
},
"ControlNetApply": {
"strength": 0.8,
"start_percent": 0.0,
"end_percent": 1.0
}
}
应用场景:
-
人物动作视频(OpenPose 控制)
-
场景深度视频(Depth 控制)
-
线条保持视频(Canny 控制)
3.4 IPAdapter 参考图工作流
IPAdapter + AnimateDiff:
Load Reference Image → IPAdapter Apply
↓
Load Checkpoint → KSampler → Video Output
↑
AnimateDiff Loader
IPAdapter 配置:
{
"IPAdapterModelLoader": {
"ipadapter_file": "ip-adapter-plus_sd15.safetensors"
},
"IPAdapterApply": {
"ipadapter": "loaded_ipadapter",
"image": "reference_image",
"clip_vision": "CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors",
"weight": 0.8,
"noise": 0.4,
"weight_type": "original"
}
}
效果:
-
保持参考图的风格、色彩、构图
-
生成一致性的视频序列
3.5 长视频生成工作流(Context Options)
滑动窗口技术:
Frame 1-16 → Context 1
Frame 9-24 → Context 2
Frame 17-32 → Context 3
↓
Merge Contexts → Final Video
Context 配置:
{
"ContextOptions": {
"context_length": 16,
"context_stride": 8,
"context_overlap": 4,
"context_schedule": "uniform",
"closed_loop": false
}
}
参数说明:
-
context_length:每个上下文的帧数 -
context_stride:上下文之间的步长 -
context_overlap:上下文重叠帧数 -
closed_loop:是否循环视频
四、工作流搭建实战
4.1 新手入门:15 分钟搭建第一个视频工作流
步骤 1:安装 ComfyUI
# 方法 1:官方版本
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
pip install -r requirements.txt
# 方法 2:下载整合包(推荐新手)
# 搜索 "ComfyUI Manager 整合包" 下载
步骤 2:安装必要模型
models/checkpoints/ # 主模型
└── sd15_checkpoint.safetensors
models/animatediff/ # AnimateDiff 运动模块
└── mm_sd15_v3.safetensors
models/clip_vision/ # CLIP 视觉模型
└── CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors
models/controlnet/ # ControlNet 模型
└── control_v11p_sd15_openpose.pth
步骤 3:安装 ComfyUI-Manager
cd ComfyUI/custom_nodes
git clone https://github.com/ltdrdata/ComfyUI-Manager.git
# 重启 ComfyUI
步骤 4:加载第一个工作流
-
打开 ComfyUI Web 界面
-
点击 "Load" 按钮
-
选择下载的工作流 JSON 文件
-
点击 "Queue Prompt" 运行
4.2 进阶:自定义节点工作流
安装推荐节点包:
通过 ComfyUI-Manager 安装:
1. Efficiency Nodes(高效节点)
2. RGThree(性能优化)
3. ComfyUI Impact Pack(工具集合)
4. ComfyUI IPAdapter Plus(IPAdapter 增强)
5. Ultimate SD Upscale(超分辨率)
6. ComfyUI AnimateDiff Evolved(AnimateDiff 增强版)
7. FizzNodes(动画节点)
8. ComfyUI VideoHelperSuite(视频工具)
搭建技巧:
-
使用组(Group)整理节点
-
右键 → "Add Group"
-
将相关节点拖入组内
-
可以折叠/展开组
-
-
使用 Note 节点添加注释
-
右键 → "Add Note"
-
记录参数说明、注意事项
-
-
使用 Reroute 节点整理连线
-
避免连线交叉混乱
-
让工作流更清晰
-
4.3 实战案例:LoFi 音乐动画视频
需求:
-
输入:一张静态图片 + 音乐
-
输出:带有眨眼、头发飘动特效的 LoFi 动画视频
工作流搭建:
1. Load Image(加载背景图)
2. Load Image(加载人物图)
3. AnimateDiff Loader(运动模块)
4. ControlNet OpenPose(人物姿态控制)
5. IPAdapter(风格保持)
6. KSampler(生成动画帧)
7. VAE Decode(解码为图片)
8. Video Combine(合并为视频)
9. Load Audio(加载音频)
10. Video Combine with Audio(合成音视频)
11. Save Video(保存视频)
参数配置:
{
"AnimateDiff Loader": {
"motion_model": "mm_sd15_v3.safetensors",
"frame_rate": 8,
"frame_count": 16,
"loop_count": 0
},
"ControlNet Apply": {
"strength": 0.6,
"start_percent": 0.0,
"end_percent": 0.8
},
"IPAdapter Apply": {
"weight": 0.7,
"noise": 0.3
},
"KSampler": {
"steps": 25,
"cfg": 7.0,
"sampler_name": "dpmpp_2m",
"scheduler": "karras"
}
}
五、高级技巧与优化
5.1 显存优化
问题:视频生成显存占用高
解决方案:
-
模型分块卸载
设置 → 启用 --lowvram 或 --novram 模式
ComfyUI 会自动将不用的模型移出显存 -
VAE 分块编码
使用 Tiled VAE Decode 节点
将大图分成小块分别解码
避免显存溢出 -
Context 滑动窗口
长视频使用 Context Options
每次只生成 16-24 帧
通过滑动窗口拼接成长视频 -
使用 SDXL Turbo / LCM
将采样步数从 20-30 步降低到 4-8 步
大幅提升生成速度
减少显存占用时间
5.2 质量优化
提升视频质量的技巧:
-
使用更高分辨率
基础生成:512x512 或 512x768
upscale 后:1024x1024 或 1024x1536
使用 Ultimate SD Upscale 工作流 -
增加采样步数
标准:20-25 步
高质量:30-40 步
使用 DPM++ 2M Karras 采样器 -
多 ControlNet 组合
OpenPose(姿态)+ Depth(深度)+ Canny(边缘)
每个 ControlNet 权重 0.6-0.8
避免过度控制 -
IPAdapter 风格保持
使用高质量参考图
IPAdapter 权重 0.7-0.9
配合 ControlNet 使用效果更佳 -
帧插值提升流畅度
原始:8 fps, 16 帧
插值后:16 fps, 32 帧
使用 RIFE 或 AMT 插值模型
5.3 一致性优化
保持角色/场景一致性:
-
使用 Reference Only
在 KSampler 中启用 reference_only
参考图会直接影响生成结果
保持角色特征 -
IPAdapter FaceID
加载 FaceID 模型
精准保持人物面部特征
适用于多镜头视频 -
LoRA 角色绑定
训练角色 LoRA
在每个镜头中加载相同 LoRA
保持角色一致性 -
Embedding 固定
使用 Textual Inversion Embedding
固定特定角色或风格的特征
在提示词中调用
5.4 批量生成技巧
使用 XY Plot 节点:
XY Plot 配置:
- X 轴:不同提示词
- Y 轴:不同 CFG 值
- 自动生成对比表格
使用 Batch 模式:
{
"Empty Latent Image": {
"batch_size": 32 // 一次生成 32 个视频
},
"KSampler": {
"batch_index": 0,
"length": 32
}
}
自动保存带参数水印:
使用 Save Image with Metadata 节点
自动在图片上标注:
- 提示词
- 采样参数
- 模型信息
- 时间戳
六、批量自动化处理
6.1 API 批量调用
ComfyUI API 模式:
import requests
import json
# 1. 准备工作流 JSON
with open('workflow.json', 'r') as f:
workflow = json.load(f)
# 2. 发送请求到 ComfyUI
prompt = {
"prompt": workflow,
"client_id": "your_client_id"
}
response = requests.post('http://127.0.0.1:8188/prompt', json=prompt)
# 3. 获取生成结果
prompt_id = response.json()['prompt_id']
# 4. 轮询查询进度
import websocket
ws = websocket.connect('ws://127.0.0.1:8188/ws')
while True:
message = ws.recv()
if prompt_id in message:
break
6.2 批量生成脚本
Python 批量处理示例:
import os
import json
import requests
COMFYUI_URL = "http://127.0.0.1:8188"
def load_workflow_template():
with open('template.json', 'r', encoding='utf-8') as f:
return json.load(f)
def modify_prompt(workflow, new_prompt):
# 修改提示词节点
workflow['3']['inputs']['text'] = new_prompt
return workflow
def generate_video(prompt_list):
for i, prompt in enumerate(prompt_list):
workflow = load_workflow_template()
workflow = modify_prompt(workflow, prompt)
response = requests.post(
f'{COMFYUI_URL}/prompt',
json={"prompt": workflow}
)
print(f"Task {i+1} submitted: {prompt}")
# 等待生成完成
wait_for_completion(response.json()['prompt_id'])
# 保存结果
save_result(i, prompt)
def wait_for_completion(prompt_id):
import websocket
ws = websocket.WebSocket()
ws.connect(f"ws://{COMFYUI_URL}/ws")
while True:
message = ws.recv()
if prompt_id in message:
break
ws.close()
# 使用示例
prompts = [
"a beautiful landscape, mountains, lake",
"a futuristic city, cyberpunk style",
"a fantasy forest, magical atmosphere"
]
generate_video(prompts)
6.3 MCP Server 集成
构建 ComfyUI-MCP Server:
package main
import (
"github.com/richinsley/comfy2go"
"github.com/your-org/go-mcp"
"github.com/gin-gonic/gin"
)
// 1. 配置工作流
type WorkflowConfig struct {
Name string
Description string
WorkflowFile string
Parameters []Parameter
}
// 2. 创建 MCP Tool
tool := &protocol.Tool{
Name: "视频生成",
Description: "根据提示词生成 AI 视频",
InputSchema: protocol.InputSchema{
Type: protocol.Object,
Properties: map[string]*protocol.Property{
"prompt": {
Type: "string",
Description: "视频提示词",
},
"frames": {
Type: "integer",
Description: "帧数",
},
},
Required: []string{"prompt"},
},
}
// 3. 构建 MCP Server
sseTransport, handler, err := transport.NewSSEServerTransportAndHandler("/message")
mcpServer, err := server.NewServer(sseTransport)
mcpServer.RegisterTool(tool, NewToolHandler(workflowID))
// 4. 集成 Gin HTTP 服务
r := gin.Default()
r.GET("/sse", func(ctx *gin.Context) {
mcpHandler.HandleSSE().ServeHTTP(ctx.Writer, ctx.Request)
})
r.POST("/message", func(ctx *gin.Context) {
mcpHandler.HandleMessage().ServeHTTP(ctx.Writer, ctx.Request)
})
r.Static("/videos/", "output/videos")
r.Run(":8080")
使用场景:
-
将 ComfyUI 工作流暴露给其他应用
-
构建无人值守的自动化流水线
-
集成到企业工作流系统
6.4 定时任务调度
使用 Cron 调度:
# 每天凌晨 2 点执行批量生成
0 2 * * * /usr/bin/python3 /path/to/batch_generate.py
# 每小时执行一次
0 * * * * /usr/bin/python3 /path/to/auto_generate.py
使用 Celery 分布式任务队列:
from celery import Celery
app = Celery('comfyui_tasks', broker='redis://localhost:6379/0')
@app.task
def generate_video_task(prompt, frame_count):
workflow = load_workflow(prompt, frame_count)
result = submit_to_comfyui(workflow)
return result
# 异步调用
generate_video_task.delay("a beautiful landscape", 16)
七、常见问题解决
Q1: 显存不足(OOM)怎么办?
解决方案:
1. 启用低显存模式
启动参数添加:--lowvram 或 --novram
2. 使用 Tiled VAE
将 VAE Decode 替换为 Tiled VAE Decode
设置 tile_size: 256 或 512
3. 减少 batch_size
从 16 帧降低到 8 帧
4. 降低分辨率
从 512x768 降低到 384x640
5. 使用 SDXL Turbo / LCM
减少采样步数到 4-8 步
Q2: 视频闪烁/不连贯怎么办?
解决方案:
1. 使用 AnimateDiff Evolved
比原版更好的时间一致性
2. 启用 Context Options
context_overlap 设置为 4-8
使用 uniform 或 static 调度
3. 增加 ControlNet 权重
从 0.6 提升到 0.8
增强控制力
4. 使用 IPAdapter
保持风格一致性
weight 设置为 0.7-0.9
5. 后期处理
使用 Deflicker 插件
或使用 RIFE 插值
Q3: 人物动作僵硬怎么办?
解决方案:
1. 使用更强大的 Motion Module
mm_sd15_v3.safetensors
或 HotshotXL 运动模块
2. 调整 motion_bucket_id(SVD)
从 127 提升到 150-200
增加运动幅度
3. 使用 ControlNet OpenPose
提供明确的人物姿态
strength: 0.6-0.8
4. 使用 FizzNodes 关键帧
设置动作变化关键帧
让动作更自然
5. 增加帧率
从 8fps 提升到 12-16fps
动作更流畅
Q4: 如何生成循环视频?
解决方案:
1. AnimateDiff 设置
closed_loop: true
loop_count: 0(无限循环)
2. 使用 Loop 节点
ComfyUI VideoHelperSuite 提供
LoopAnimate 节点
3. 首尾帧一致
设置首尾帧为相同图片
使用 ControlNet 保持
4. 后期处理
使用视频编辑软件
交叉淡化首尾
Q5: 工作流加载失败怎么办?
排查步骤:
1. 检查缺失节点
Manager → Install Missing Custom Nodes
自动安装缺失的自定义节点
2. 检查缺失模型
Manager → Refresh Missing Models
下载缺失的模型文件
3. 检查 ComfyUI 版本
某些新工作流需要最新版 ComfyUI
更新到最新版本
4. 手动修复
打开 JSON 文件
查找错误的节点 ID
手动修改或删除
5. 重新导出
如果工作流是自己搭建的
重新导出为 JSON
Q6: 视频有水印怎么办?
解决方案:
1. 检查 Save Image 节点
关闭 save_metadata 选项
或关闭 add_watermark
2. 使用无损保存
SaveAnimatedPNG 节点
不添加任何水印
3. 后期去除
使用视频编辑软件
裁剪或模糊水印区域
4. 使用 API 保存
通过 API 获取原始输出
不经过 Web 界面
八、资源下载与分享
8.1 工作流下载平台
官方/综合平台
| 平台 | 网址 | 特点 |
|---|---|---|
| ComfyWorkflows | https://comfyworkflows.com | 官方工作流社区 |
| OpenArt Workflows | https://openart.ai/workflows | 热门工作流,可在线编辑 |
| Civitai | https://civitai.com | 模型 + 工作流 |
| ComfyUI Share | https://comfyui-share.github.io | 社区分享 |
国内平台
| 平台 | 网址 | 特点 |
|---|---|---|
| ComfyUIX | https://comfyuix.cn/home/home | 国内直连,免费下载 |
| Liblib | https://www.liblib.ai | 会员制,高质量资源 |
| Bilibili | https://bilibili.com | 视频教程 + 工作流 |
8.2 模型下载
主模型(Checkpoints)
Civitai: https://civitai.com/models
HuggingFace: https://huggingface.co/models
Liblib: https://www.liblib.ai/models
AnimateDiff 运动模块
官方 GitHub: https://github.com/guoyww/AnimateDiff
HuggingFace: https://huggingface.co/guoyww/animatediff
推荐模型:
- mm_sd15_v3.safetensors(SD1.5)
- mm_sdxl_v10_beta.safetensors(SDXL)
- hsxl_temporal_layers.safetensors(HotshotXL)
ControlNet 模型
Civitai ControlNet 专区
HuggingFace ControlNet
推荐模型:
- control_v11p_sd15_openpose.pth
- control_v11f1p_sd15_depth.pth
- control_v11p_sd15_canny.pth
IPAdapter 模型
HuggingFace: https://huggingface.co/h94/IP-Adapter
推荐模型:
- ip-adapter-plus_sd15.safetensors
- ip-adapter-plus-face_sd15.safetensors
- ip-adapter-full-face_sd15.safetensors
8.3 自定义节点安装
通过 ComfyUI-Manager 一键安装:
启动 ComfyUI → Manager → Install Custom Nodes
搜索节点名称 → Install → 重启 ComfyUI
推荐节点包:
1. ComfyUI-Manager(必须)
管理所有自定义节点和模型
2. Efficiency Nodes
提供高效节点,简化工作流
3. RGThree
性能优化 + 实用工具
4. ComfyUI Impact Pack
工具集合,包含多种功能
5. ComfyUI IPAdapter Plus
IPAdapter 增强版
6. ComfyUI AnimateDiff Evolved
AnimateDiff 增强版
7. FizzNodes
动画关键帧控制
8. ComfyUI VideoHelperSuite
视频处理工具
9. Ultimate SD Upscale
超分辨率放大
10. ComfyUI ControlNet Auxiliary
ControlNet 预处理器
8.4 学习资源
视频教程
-
Bilibili: 搜索 "ComfyUI 教程"
-
YouTube: 搜索 "ComfyUI tutorial"
图文教程
-
CSDN : https://blog.csdn.net/
-
Medium: 搜索 "ComfyUI workflow"
社区交流
-
Reddit: r/StableDiffusion, r/ComfyUI
-
Discord: ComfyUI 官方服务器
-
QQ 群: 搜索 "ComfyUI 交流"
-
微信群: 关注相关公众号加入
8.5 工作流分享格式
导出工作流:
1. 在 ComfyUI 中完成工作流搭建
2. 点击 "Save" 按钮
3. 保存为 .json 文件
4. 打包相关模型和自定义节点信息
5. 分享到社区平台
分享时包含的信息:
# 工作流名称
## 简介
简短描述工作流的功能和用途
## 效果预览
附上生成的示例图片或视频
## 所需模型
- Checkpoint: xxx.safetensors
- AnimateDiff: xxx.safetensors
- ControlNet: xxx.pth
## 所需自定义节点
- ComfyUI-Manager
- Efficiency Nodes
- ...
## 使用方法
1. 下载工作流 JSON 文件
2. 安装所需模型和节点
3. 拖入 ComfyUI
4. 点击 Queue Prompt
## 参数说明
详细说明关键参数的作用和推荐值
## 更新日志
记录工作流的版本更新内容
📝 总结
ComfyUI 视频创建工作流是一个强大而灵活的系统,掌握它需要:
学习路径
-
入门阶段(1-2 周)
-
理解节点式工作流概念
-
安装 ComfyUI 和必要模型
-
运行现成工作流
-
-
进阶阶段(1-2 月)
-
学习搭建简单工作流
-
掌握常用节点和参数
-
自定义修改工作流
-
-
高级阶段(3-6 月)
-
创建复杂工作流
-
优化性能和质量
-
开发自定义节点
-
-
专家阶段(6 月+)
-
构建自动化流水线
-
集成 MCP Server
-
分享和教学工作流
-
关键建议
-
从模仿开始 - 下载优秀工作流,研究其结构
-
循序渐进 - 不要一开始就搭建复杂工作流
-
善用 Manager - 用它管理节点和模型
-
加入社区 - 与他人交流,学习经验
-
持续实践 - 多做项目,积累经验