ComfyUI 视频创作实战手册:节点搭建 + 性能优化 + 批量生成

ComfyUI 视频创建工作流完整指南

从入门到精通,全面掌握 ComfyUI 视频生成工作流的搭建与使用。


📑 目录


一、ComfyUI 工作流基础

1.1 ComfyUI 是什么?

简单定义:ComfyUI 是一个"模块化积木工厂",将 AI 视频/图像生成流程拆解成独立的节点,通过连线自由组合。

与 A1111 的区别

特性 A1111 WebUI ComfyUI
界面 封装好的控制面板 节点式可视化编程
灵活性 固定流程,只能调参数 完全自定义流程
显存效率 一般 优秀(支持分块卸载)
新模型支持 慢(1-4 周) 快(当天)
工作流分享 困难 一键导出 JSON
学习曲线 平缓 陡峭但回报高

1.2 工作流核心原理

数据流图(Data Flow Graph)

复制代码
节点 A (输出) ──→ 节点 B (输入)
                    │
                    ↓
                节点 C (执行)
                    │
                    ↓
                节点 D (输出结果)

执行逻辑

  1. 每个节点有输入口(Input)和输出口(Output)

  2. 数据沿着连线从一个节点流向下一个节点

  3. 只有当所有必填输入就绪,节点才会执行

  4. 执行完成后将结果传递给下一个节点

1.3 8 大类核心节点

1. Load Checkpoint(加载检查点)
  • 功能 :加载 .ckpt.safetensors 模型

  • 输出modelclipvae 三个对象

  • 示例节点CheckpointLoaderSimple

2. CLIP Text Encode(提示词编码)
  • 功能:将正向/负向提示词转成条件向量

  • 输入:文本提示词 + CLIP 模型

  • 输出CONDITIONING

  • 示例节点CLIPTextEncode

3. Empty Latent Image / Image to Latent
  • 功能

    • EmptyLatentImage:生成空白潜空间(随机噪声)

    • ImageToLatent:将图片转换为潜空间

  • 输出LATENT

4. KSampler / KSampler Advanced(核心采样器)
  • 功能:执行去噪生成

  • 输入

    • model:模型

    • positive:正向条件

    • negative:负向条件

    • latent_image:初始潜空间

    • sampler 配置:步数、CFG、采样方法

  • 输出LATENT(去噪后的潜空间)

5. VAE Decode(潜空间→图片)
  • 功能:将潜空间解码为可见图片

  • 输入samples(LATENT)+ vae

  • 输出IMAGE

6. Save Image(保存图片)
  • 功能:保存生成的图片

  • 输入images

  • 输出:无(终端节点)

7. ControlNet 相关节点
  • 功能:应用 ControlNet 控制

  • 常用节点

    • ControlNetLoader

    • ControlNetApply

    • ControlNetApplyAdvanced

8. LoRA 加载节点
  • 功能:加载和融合 LoRA 模型

  • 示例节点LoRALoader


二、视频生成核心节点

2.1 基础视频生成节点

AnimateDiff 系列

AnimateDiff 是什么

  • 基于 Stable Diffusion 的视频生成框架

  • 通过添加运动模块(Motion Module)实现视频生成

  • 支持文生视频、图生视频

核心节点

复制代码
1. AnimateDiffLoader
   - 功能:加载 AnimateDiff 运动模块
   - 输入:model, motion_model
   - 输出:model(带运动能力)

2. AnimateDiffCombine
   - 功能:将多帧潜空间合并为视频
   - 输入:frames(多帧 LATENT)
   - 输出:VIDEO

3. AnimateDiffSlidingWindow
   - 功能:滑动窗口优化长视频生成
   - 适用:超过 16 帧的视频
Stable Video Diffusion (SVD)

SVD 节点组

复制代码
1. SVDLoader
   - 加载 SVD 模型
   - 输出:svd_model

2. SVD_img2vid_Conditioning
   - 输入:图片 + 参数(motion_bucket_id, fps, augmentation_level)
   - 输出:positive, negative, latent

3. VideoLinearCFGGuidance
   - SVD 专用的 CFG 引导节点

4. SaveAnimatedWEBP / SaveAnimatedPNG
   - 保存为动画 WEBP 或 PNG 序列

2.2 视频控制节点

ControlNet for Video
复制代码
1. ControlNetLoader
   - 加载视频专用 ControlNet 模型
   - 支持:OpenPose、Depth、Canny、SoftEdge

2. ControlNetApply (每帧应用)
   - 在视频的每一帧上应用 ControlNet
   - 保持时间一致性

3. RIFE VFI
   - 视频帧插值
   - 提升视频流畅度
视频编辑节点
复制代码
1. Video Combine
   - 合并多个视频片段

2. Video Split
   - 将视频分割为片段

3. Video Resize
   - 调整视频分辨率

4. Color Grading
   - 视频调色

2.3 视频增强节点

复制代码
1. Frame Interpolation (RIFE/AMT)
   - 帧插值,提升帧率
   - 30fps → 60fps

2. Video Upscale
   - 视频超分辨率
   - 720p → 1080p → 4K

3. Video Stabilization
   - 视频防抖

4. Motion Blur
   - 添加运动模糊

三、经典视频工作流

3.1 文生视频工作流(Text-to-Video)

工作流结构

复制代码
graph LR
    A[Load Checkpoint] --> B[CLIP Text Encode Positive]
    A --> C[CLIP Text Encode Negative]
    A --> D[VAE]
    B --> E[KSampler]
    C --> E
    F[Empty Latent Image] --> E
    G[AnimateDiff Loader] --> E
    E --> H[VAE Decode]
    H --> I[Video Combine]
    I --> J[Save Video]

节点配置

复制代码
{
  "Load Checkpoint": {
    "ckpt_name": "sd15_checkpoint.safetensors"
  },
  "AnimateDiff Loader": {
    "motion_model": "mm_sd15_v3.safetensors",
    "frame_rate": 8,
    "frame_count": 16
  },
  "CLIP Text Encode Positive": {
    "text": "a beautiful landscape, mountains, lake, sunset, cinematic"
  },
  "CLIP Text Encode Negative": {
    "text": "ugly, deformed, noisy, blurry, low quality"
  },
  "Empty Latent Image": {
    "width": 512,
    "height": 512,
    "batch_size": 16
  },
  "KSampler": {
    "steps": 20,
    "cfg": 7.5,
    "sampler_name": "euler_a",
    "scheduler": "normal"
  }
}

参数说明

  • frame_count:视频帧数(通常 16、24、32)

  • frame_rate:帧率(8-16 fps)

  • batch_size:与 frame_count 一致

3.2 图生视频工作流(Image-to-Video)

工作流结构

复制代码
Load Image → Image To Latent → KSampler → VAE Decode → Save Video
                ↑
        AnimateDiff Loader

SVD 图生视频流程

复制代码
1. Load Checkpoint (SVD 模型)
2. Load Image (输入图片)
3. SVD_img2vid_Conditioning
   - motion_bucket_id: 127
   - fps: 6
   - augmentation_level: 0
4. VideoLinearCFGGuidance
5. KSampler
6. VAE Decode
7. Save Animated WEBP

参数建议

  • motion_bucket_id:控制运动幅度(100-200)

  • fps:输出视频帧率(6-24)

  • augmentation_level:增强级别(0-1)

3.3 ControlNet 视频工作流

多 ControlNet 组合

复制代码
Load Image → Preprocessor (OpenPose) → ControlNet Apply
         ↓
    Preprocessor (Depth) → ControlNet Apply
         ↓
    Preprocessor (Canny) → ControlNet Apply
         ↓
         KSampler → Video Output

节点配置

复制代码
{
  "ControlNetLoader_1": {
    "control_net_name": "control_v11p_sd15_openpose.pth"
  },
  "ControlNetLoader_2": {
    "control_net_name": "control_v11f1p_sd15_depth.pth"
  },
  "ControlNetLoader_3": {
    "control_net_name": "control_v11p_sd15_canny.pth"
  },
  "ControlNetApply": {
    "strength": 0.8,
    "start_percent": 0.0,
    "end_percent": 1.0
  }
}

应用场景

  • 人物动作视频(OpenPose 控制)

  • 场景深度视频(Depth 控制)

  • 线条保持视频(Canny 控制)

3.4 IPAdapter 参考图工作流

IPAdapter + AnimateDiff

复制代码
Load Reference Image → IPAdapter Apply
                    ↓
Load Checkpoint → KSampler → Video Output
                    ↑
         AnimateDiff Loader

IPAdapter 配置

复制代码
{
  "IPAdapterModelLoader": {
    "ipadapter_file": "ip-adapter-plus_sd15.safetensors"
  },
  "IPAdapterApply": {
    "ipadapter": "loaded_ipadapter",
    "image": "reference_image",
    "clip_vision": "CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors",
    "weight": 0.8,
    "noise": 0.4,
    "weight_type": "original"
  }
}

效果

  • 保持参考图的风格、色彩、构图

  • 生成一致性的视频序列

3.5 长视频生成工作流(Context Options)

滑动窗口技术

复制代码
Frame 1-16  → Context 1
Frame 9-24  → Context 2
Frame 17-32 → Context 3
              ↓
         Merge Contexts → Final Video

Context 配置

复制代码
{
  "ContextOptions": {
    "context_length": 16,
    "context_stride": 8,
    "context_overlap": 4,
    "context_schedule": "uniform",
    "closed_loop": false
  }
}

参数说明

  • context_length:每个上下文的帧数

  • context_stride:上下文之间的步长

  • context_overlap:上下文重叠帧数

  • closed_loop:是否循环视频


四、工作流搭建实战

4.1 新手入门:15 分钟搭建第一个视频工作流

步骤 1:安装 ComfyUI

复制代码
# 方法 1:官方版本
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
pip install -r requirements.txt

# 方法 2:下载整合包(推荐新手)
# 搜索 "ComfyUI Manager 整合包" 下载

步骤 2:安装必要模型

复制代码
models/checkpoints/          # 主模型
  └── sd15_checkpoint.safetensors
models/animatediff/          # AnimateDiff 运动模块
  └── mm_sd15_v3.safetensors
models/clip_vision/          # CLIP 视觉模型
  └── CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors
models/controlnet/           # ControlNet 模型
  └── control_v11p_sd15_openpose.pth

步骤 3:安装 ComfyUI-Manager

复制代码
cd ComfyUI/custom_nodes
git clone https://github.com/ltdrdata/ComfyUI-Manager.git
# 重启 ComfyUI

步骤 4:加载第一个工作流

  1. 打开 ComfyUI Web 界面

  2. 点击 "Load" 按钮

  3. 选择下载的工作流 JSON 文件

  4. 点击 "Queue Prompt" 运行

4.2 进阶:自定义节点工作流

安装推荐节点包

通过 ComfyUI-Manager 安装:

复制代码
1. Efficiency Nodes(高效节点)
2. RGThree(性能优化)
3. ComfyUI Impact Pack(工具集合)
4. ComfyUI IPAdapter Plus(IPAdapter 增强)
5. Ultimate SD Upscale(超分辨率)
6. ComfyUI AnimateDiff Evolved(AnimateDiff 增强版)
7. FizzNodes(动画节点)
8. ComfyUI VideoHelperSuite(视频工具)

搭建技巧

  1. 使用组(Group)整理节点

    • 右键 → "Add Group"

    • 将相关节点拖入组内

    • 可以折叠/展开组

  2. 使用 Note 节点添加注释

    • 右键 → "Add Note"

    • 记录参数说明、注意事项

  3. 使用 Reroute 节点整理连线

    • 避免连线交叉混乱

    • 让工作流更清晰

4.3 实战案例:LoFi 音乐动画视频

需求

  • 输入:一张静态图片 + 音乐

  • 输出:带有眨眼、头发飘动特效的 LoFi 动画视频

工作流搭建

复制代码
1. Load Image(加载背景图)
2. Load Image(加载人物图)
3. AnimateDiff Loader(运动模块)
4. ControlNet OpenPose(人物姿态控制)
5. IPAdapter(风格保持)
6. KSampler(生成动画帧)
7. VAE Decode(解码为图片)
8. Video Combine(合并为视频)
9. Load Audio(加载音频)
10. Video Combine with Audio(合成音视频)
11. Save Video(保存视频)

参数配置

复制代码
{
  "AnimateDiff Loader": {
    "motion_model": "mm_sd15_v3.safetensors",
    "frame_rate": 8,
    "frame_count": 16,
    "loop_count": 0
  },
  "ControlNet Apply": {
    "strength": 0.6,
    "start_percent": 0.0,
    "end_percent": 0.8
  },
  "IPAdapter Apply": {
    "weight": 0.7,
    "noise": 0.3
  },
  "KSampler": {
    "steps": 25,
    "cfg": 7.0,
    "sampler_name": "dpmpp_2m",
    "scheduler": "karras"
  }
}

五、高级技巧与优化

5.1 显存优化

问题:视频生成显存占用高

解决方案

  1. 模型分块卸载

    设置 → 启用 --lowvram 或 --novram 模式
    ComfyUI 会自动将不用的模型移出显存

  2. VAE 分块编码

    使用 Tiled VAE Decode 节点
    将大图分成小块分别解码
    避免显存溢出

  3. Context 滑动窗口

    长视频使用 Context Options
    每次只生成 16-24 帧
    通过滑动窗口拼接成长视频

  4. 使用 SDXL Turbo / LCM

    将采样步数从 20-30 步降低到 4-8 步
    大幅提升生成速度
    减少显存占用时间

5.2 质量优化

提升视频质量的技巧

  1. 使用更高分辨率

    基础生成:512x512 或 512x768
    upscale 后:1024x1024 或 1024x1536
    使用 Ultimate SD Upscale 工作流

  2. 增加采样步数

    标准:20-25 步
    高质量:30-40 步
    使用 DPM++ 2M Karras 采样器

  3. 多 ControlNet 组合

    OpenPose(姿态)+ Depth(深度)+ Canny(边缘)
    每个 ControlNet 权重 0.6-0.8
    避免过度控制

  4. IPAdapter 风格保持

    使用高质量参考图
    IPAdapter 权重 0.7-0.9
    配合 ControlNet 使用效果更佳

  5. 帧插值提升流畅度

    原始:8 fps, 16 帧
    插值后:16 fps, 32 帧
    使用 RIFE 或 AMT 插值模型

5.3 一致性优化

保持角色/场景一致性

  1. 使用 Reference Only

    在 KSampler 中启用 reference_only
    参考图会直接影响生成结果
    保持角色特征

  2. IPAdapter FaceID

    加载 FaceID 模型
    精准保持人物面部特征
    适用于多镜头视频

  3. LoRA 角色绑定

    训练角色 LoRA
    在每个镜头中加载相同 LoRA
    保持角色一致性

  4. Embedding 固定

    使用 Textual Inversion Embedding
    固定特定角色或风格的特征
    在提示词中调用

5.4 批量生成技巧

使用 XY Plot 节点

复制代码
XY Plot 配置:
- X 轴:不同提示词
- Y 轴:不同 CFG 值
- 自动生成对比表格

使用 Batch 模式

复制代码
{
  "Empty Latent Image": {
    "batch_size": 32  // 一次生成 32 个视频
  },
  "KSampler": {
    "batch_index": 0,
    "length": 32
  }
}

自动保存带参数水印

复制代码
使用 Save Image with Metadata 节点
自动在图片上标注:
- 提示词
- 采样参数
- 模型信息
- 时间戳

六、批量自动化处理

6.1 API 批量调用

ComfyUI API 模式

复制代码
import requests
import json

# 1. 准备工作流 JSON
with open('workflow.json', 'r') as f:
    workflow = json.load(f)

# 2. 发送请求到 ComfyUI
prompt = {
    "prompt": workflow,
    "client_id": "your_client_id"
}

response = requests.post('http://127.0.0.1:8188/prompt', json=prompt)

# 3. 获取生成结果
prompt_id = response.json()['prompt_id']

# 4. 轮询查询进度
import websocket
ws = websocket.connect('ws://127.0.0.1:8188/ws')
while True:
    message = ws.recv()
    if prompt_id in message:
        break

6.2 批量生成脚本

Python 批量处理示例

复制代码
import os
import json
import requests

COMFYUI_URL = "http://127.0.0.1:8188"

def load_workflow_template():
    with open('template.json', 'r', encoding='utf-8') as f:
        return json.load(f)

def modify_prompt(workflow, new_prompt):
    # 修改提示词节点
    workflow['3']['inputs']['text'] = new_prompt
    return workflow

def generate_video(prompt_list):
    for i, prompt in enumerate(prompt_list):
        workflow = load_workflow_template()
        workflow = modify_prompt(workflow, prompt)
        
        response = requests.post(
            f'{COMFYUI_URL}/prompt',
            json={"prompt": workflow}
        )
        
        print(f"Task {i+1} submitted: {prompt}")
        
        # 等待生成完成
        wait_for_completion(response.json()['prompt_id'])
        
        # 保存结果
        save_result(i, prompt)

def wait_for_completion(prompt_id):
    import websocket
    ws = websocket.WebSocket()
    ws.connect(f"ws://{COMFYUI_URL}/ws")
    while True:
        message = ws.recv()
        if prompt_id in message:
            break
    ws.close()

# 使用示例
prompts = [
    "a beautiful landscape, mountains, lake",
    "a futuristic city, cyberpunk style",
    "a fantasy forest, magical atmosphere"
]

generate_video(prompts)

6.3 MCP Server 集成

构建 ComfyUI-MCP Server

复制代码
package main

import (
    "github.com/richinsley/comfy2go"
    "github.com/your-org/go-mcp"
    "github.com/gin-gonic/gin"
)

// 1. 配置工作流
type WorkflowConfig struct {
    Name        string
    Description string
    WorkflowFile string
    Parameters  []Parameter
}

// 2. 创建 MCP Tool
tool := &protocol.Tool{
    Name:        "视频生成",
    Description: "根据提示词生成 AI 视频",
    InputSchema: protocol.InputSchema{
        Type: protocol.Object,
        Properties: map[string]*protocol.Property{
            "prompt": {
                Type: "string",
                Description: "视频提示词",
            },
            "frames": {
                Type: "integer",
                Description: "帧数",
            },
        },
        Required: []string{"prompt"},
    },
}

// 3. 构建 MCP Server
sseTransport, handler, err := transport.NewSSEServerTransportAndHandler("/message")
mcpServer, err := server.NewServer(sseTransport)
mcpServer.RegisterTool(tool, NewToolHandler(workflowID))

// 4. 集成 Gin HTTP 服务
r := gin.Default()
r.GET("/sse", func(ctx *gin.Context) {
    mcpHandler.HandleSSE().ServeHTTP(ctx.Writer, ctx.Request)
})
r.POST("/message", func(ctx *gin.Context) {
    mcpHandler.HandleMessage().ServeHTTP(ctx.Writer, ctx.Request)
})
r.Static("/videos/", "output/videos")
r.Run(":8080")

使用场景

  • 将 ComfyUI 工作流暴露给其他应用

  • 构建无人值守的自动化流水线

  • 集成到企业工作流系统

6.4 定时任务调度

使用 Cron 调度

复制代码
# 每天凌晨 2 点执行批量生成
0 2 * * * /usr/bin/python3 /path/to/batch_generate.py

# 每小时执行一次
0 * * * * /usr/bin/python3 /path/to/auto_generate.py

使用 Celery 分布式任务队列

复制代码
from celery import Celery

app = Celery('comfyui_tasks', broker='redis://localhost:6379/0')

@app.task
def generate_video_task(prompt, frame_count):
    workflow = load_workflow(prompt, frame_count)
    result = submit_to_comfyui(workflow)
    return result

# 异步调用
generate_video_task.delay("a beautiful landscape", 16)

七、常见问题解决

Q1: 显存不足(OOM)怎么办?

解决方案

复制代码
1. 启用低显存模式
   启动参数添加:--lowvram 或 --novram

2. 使用 Tiled VAE
   将 VAE Decode 替换为 Tiled VAE Decode
   设置 tile_size: 256 或 512

3. 减少 batch_size
   从 16 帧降低到 8 帧

4. 降低分辨率
   从 512x768 降低到 384x640

5. 使用 SDXL Turbo / LCM
   减少采样步数到 4-8 步

Q2: 视频闪烁/不连贯怎么办?

解决方案

复制代码
1. 使用 AnimateDiff Evolved
   比原版更好的时间一致性

2. 启用 Context Options
   context_overlap 设置为 4-8
   使用 uniform 或 static 调度

3. 增加 ControlNet 权重
   从 0.6 提升到 0.8
   增强控制力

4. 使用 IPAdapter
   保持风格一致性
   weight 设置为 0.7-0.9

5. 后期处理
   使用 Deflicker 插件
   或使用 RIFE 插值

Q3: 人物动作僵硬怎么办?

解决方案

复制代码
1. 使用更强大的 Motion Module
   mm_sd15_v3.safetensors
   或 HotshotXL 运动模块

2. 调整 motion_bucket_id(SVD)
   从 127 提升到 150-200
   增加运动幅度

3. 使用 ControlNet OpenPose
   提供明确的人物姿态
   strength: 0.6-0.8

4. 使用 FizzNodes 关键帧
   设置动作变化关键帧
   让动作更自然

5. 增加帧率
   从 8fps 提升到 12-16fps
   动作更流畅

Q4: 如何生成循环视频?

解决方案

复制代码
1. AnimateDiff 设置
   closed_loop: true
   loop_count: 0(无限循环)

2. 使用 Loop 节点
   ComfyUI VideoHelperSuite 提供
   LoopAnimate 节点

3. 首尾帧一致
   设置首尾帧为相同图片
   使用 ControlNet 保持

4. 后期处理
   使用视频编辑软件
   交叉淡化首尾

Q5: 工作流加载失败怎么办?

排查步骤

复制代码
1. 检查缺失节点
   Manager → Install Missing Custom Nodes
   自动安装缺失的自定义节点

2. 检查缺失模型
   Manager → Refresh Missing Models
   下载缺失的模型文件

3. 检查 ComfyUI 版本
   某些新工作流需要最新版 ComfyUI
   更新到最新版本

4. 手动修复
   打开 JSON 文件
   查找错误的节点 ID
   手动修改或删除

5. 重新导出
   如果工作流是自己搭建的
   重新导出为 JSON

Q6: 视频有水印怎么办?

解决方案

复制代码
1. 检查 Save Image 节点
   关闭 save_metadata 选项
   或关闭 add_watermark

2. 使用无损保存
   SaveAnimatedPNG 节点
   不添加任何水印

3. 后期去除
   使用视频编辑软件
   裁剪或模糊水印区域

4. 使用 API 保存
   通过 API 获取原始输出
   不经过 Web 界面

八、资源下载与分享

8.1 工作流下载平台

官方/综合平台
平台 网址 特点
ComfyWorkflows https://comfyworkflows.com 官方工作流社区
OpenArt Workflows https://openart.ai/workflows 热门工作流,可在线编辑
Civitai https://civitai.com 模型 + 工作流
ComfyUI Share https://comfyui-share.github.io 社区分享
国内平台
平台 网址 特点
ComfyUIX https://comfyuix.cn/home/home 国内直连,免费下载
Liblib https://www.liblib.ai 会员制,高质量资源
Bilibili https://bilibili.com 视频教程 + 工作流

8.2 模型下载

主模型(Checkpoints)
复制代码
Civitai: https://civitai.com/models
HuggingFace: https://huggingface.co/models
Liblib: https://www.liblib.ai/models
AnimateDiff 运动模块
复制代码
官方 GitHub: https://github.com/guoyww/AnimateDiff
HuggingFace: https://huggingface.co/guoyww/animatediff
推荐模型:
  - mm_sd15_v3.safetensors(SD1.5)
  - mm_sdxl_v10_beta.safetensors(SDXL)
  - hsxl_temporal_layers.safetensors(HotshotXL)
ControlNet 模型
复制代码
Civitai ControlNet 专区
HuggingFace ControlNet
推荐模型:
  - control_v11p_sd15_openpose.pth
  - control_v11f1p_sd15_depth.pth
  - control_v11p_sd15_canny.pth
IPAdapter 模型
复制代码
HuggingFace: https://huggingface.co/h94/IP-Adapter
推荐模型:
  - ip-adapter-plus_sd15.safetensors
  - ip-adapter-plus-face_sd15.safetensors
  - ip-adapter-full-face_sd15.safetensors

8.3 自定义节点安装

通过 ComfyUI-Manager 一键安装

复制代码
启动 ComfyUI → Manager → Install Custom Nodes
搜索节点名称 → Install → 重启 ComfyUI

推荐节点包

复制代码
1. ComfyUI-Manager(必须)
   管理所有自定义节点和模型

2. Efficiency Nodes
   提供高效节点,简化工作流

3. RGThree
   性能优化 + 实用工具

4. ComfyUI Impact Pack
   工具集合,包含多种功能

5. ComfyUI IPAdapter Plus
   IPAdapter 增强版

6. ComfyUI AnimateDiff Evolved
   AnimateDiff 增强版

7. FizzNodes
   动画关键帧控制

8. ComfyUI VideoHelperSuite
   视频处理工具

9. Ultimate SD Upscale
   超分辨率放大

10. ComfyUI ControlNet Auxiliary
    ControlNet 预处理器

8.4 学习资源

视频教程
图文教程
社区交流
  • Reddit: r/StableDiffusion, r/ComfyUI

  • Discord: ComfyUI 官方服务器

  • QQ 群: 搜索 "ComfyUI 交流"

  • 微信群: 关注相关公众号加入

8.5 工作流分享格式

导出工作流

复制代码
1. 在 ComfyUI 中完成工作流搭建
2. 点击 "Save" 按钮
3. 保存为 .json 文件
4. 打包相关模型和自定义节点信息
5. 分享到社区平台

分享时包含的信息

复制代码
# 工作流名称

## 简介
简短描述工作流的功能和用途

## 效果预览
附上生成的示例图片或视频

## 所需模型
- Checkpoint: xxx.safetensors
- AnimateDiff: xxx.safetensors
- ControlNet: xxx.pth

## 所需自定义节点
- ComfyUI-Manager
- Efficiency Nodes
- ...

## 使用方法
1. 下载工作流 JSON 文件
2. 安装所需模型和节点
3. 拖入 ComfyUI
4. 点击 Queue Prompt

## 参数说明
详细说明关键参数的作用和推荐值

## 更新日志
记录工作流的版本更新内容

📝 总结

ComfyUI 视频创建工作流是一个强大而灵活的系统,掌握它需要:

学习路径

  1. 入门阶段(1-2 周)

    • 理解节点式工作流概念

    • 安装 ComfyUI 和必要模型

    • 运行现成工作流

  2. 进阶阶段(1-2 月)

    • 学习搭建简单工作流

    • 掌握常用节点和参数

    • 自定义修改工作流

  3. 高级阶段(3-6 月)

    • 创建复杂工作流

    • 优化性能和质量

    • 开发自定义节点

  4. 专家阶段(6 月+)

    • 构建自动化流水线

    • 集成 MCP Server

    • 分享和教学工作流

关键建议

  1. 从模仿开始 - 下载优秀工作流,研究其结构

  2. 循序渐进 - 不要一开始就搭建复杂工作流

  3. 善用 Manager - 用它管理节点和模型

  4. 加入社区 - 与他人交流,学习经验

  5. 持续实践 - 多做项目,积累经验

相关推荐
立控信息LKONE1 小时前
门禁机、控制器等库室安防设施、实现库室智能联动,一体报警
大数据·人工智能·安全
数智工坊1 小时前
【深度学习RL】A3C:异步强化学习的革命——用CPU打败GPU的深度RL算法
论文阅读·人工智能·深度学习·算法·transformer
灵智实验室1 小时前
PX4状态估计技术EKF2详解(三):EKF2 外部视觉融合——延迟后验状态与触发机制
算法·无人机·px 4
小真zzz1 小时前
中立第三方:搜极星的突围之路
大数据·人工智能
Jackzaker1 小时前
Prompt工程在代码中的实现
人工智能·python·prompt
数智工坊1 小时前
【深度学习RL】DQN:深度强化学习的里程碑——让AI从像素中学会玩Atari游戏
论文阅读·人工智能·深度学习·游戏·transformer
源码之家1 小时前
计算机毕业设计:Python基于知识图谱与深度学习的医疗智能问答系统 Django框架 Bert模型 深度学习 知识图谱 大模型(建议收藏)✅
python·深度学习·机器学习·数据分析·flask·知识图谱·课程设计
爱吃提升1 小时前
Yifan Hu(适合大规模数据)大数据算法
开发语言·算法·php
Xpower 171 小时前
从PHM到AI Agent-如何用OpenClaw构建设备健康诊断智能体
网络·人工智能·学习·算法