很多人玩AI绘图、AI视频,卡在两个痛点:要么一键出图但质感一般、不能精细化改细节;要么想做定制化特效、人物固定、动作固定、原图风格复刻,却不会搭工作流。
ComfyUI 就是解决这件事的终极工具:节点可视化、全程可控、免费开源、不吃多余算力,从静态高清AI绘图,到结构精准可控的画面,再到风格复刻、人物锁脸、一键AI动态视频,一套全搞定。
今天这篇合集教程,不讲空话、不堆概念,从基础出图到进阶五大核心能力全覆盖,新手跟着点鼠标就能跑通全流程,老手直接收藏当随身速查手册,日常做图做视频全程够用。
�� 先搞懂:为什么现在所有人都在用 ComfyUI?
相比传统一键式AI绘图工具,ComfyUI 核心优势直击创作刚需,适配个人创作、自媒体配图、短视频素材、商单轻量化出图全场景:
- 全节点可视化:每一步生成流程看得见、可拆解、可单独修改,出图翻车不用盲猜问题根源
- 资源轻量化适配:低配显卡也能流畅跑,不强制堆砌高配置,本地离线运行无隐私泄露风险
- 功能全覆盖无短板:文生图、图生图、高清修复、结构控制、风格复刻、角色固定、AI视频一键流转,无需切换多个软件
- 工作流一键复用:调好一套高清商用出图参数,保存工作流,后续批量出图不用反复调试,效率翻倍
一句话总结:想把AI画图、AI视频做成稳定量产、质感可控,ComfyUI 是必学标配工具。
�� 第一部分:零基础快速上手|ComfyUI 基础AI绘图必通流程
不用提前吃透原理,先记住一套万能基础工作流,先跑出第一张图,后续再进阶优化,新手零门槛起步。
✅ 核心极简工作流(文生图通用版)
节点顺序直接照搬连线,零出错不踩坑:加载大模型 → 正向提示词输入 → 反向负面提示词避雷 → K采样器核心生成 → VAE解码出图 → 高清放大修复 → 保存预览图片
✅ 新手直接抄的实用参数(不翻车基准值)
- 采样步数:25--35步,兼顾出图速度与画面细节,步数过少画质模糊,过多浪费算力
- 通用调度器:写实人像/场景优先选DPM++ 3M SDE;二次元插画优先选Euler a,风格适配度更高
- CFG强度:7--9,贴合提示词指令不跑偏,数值过高画面僵硬失真,过低偏离创作需求
- 基础分辨率:512×768、768×1024,适配SD1.5全系模型,兼容性拉满不报错
- 降噪强度:图生图刚需0.7--0.85,保留原图核心构图结构,同时优化画面质感不违和
✅ 新手避坑3个关键细节
1)大模型格式认准 safetensors/ckpt,直接放入对应models文件夹,别乱改文件夹名称,避免加载失败;2)提示词分开写,正向写清主体、光影、构图、画质,负面词统一规避畸形手、模糊、低画质、多肢体等常见瑕疵;3)第一次生成必开实时预览,快速排查节点连线错误、模型加载异常问题。
�� 第二部分:精准锁画面|ControlNet 全场景实操攻略
基础AI绘图最大短板:每次出图构图乱、人物姿势飘、场景透视歪、线条全变形。ControlNet 就是画面精准遥控器,牢牢锁住结构、姿态、场景轮廓,想怎么构图就怎么出图。
✅ 必学4个高频实用ControlNet用法(日常创作全覆盖)
- Canny边缘控制:精准锁定物体外轮廓、画面构图、海报版式,复刻原图线条框架,适合做海报复刻、产品配图、场景构图固定
- OpenPose人体姿态控制:刚需人像创作功能,固定人物动作、肢体姿势、站位比例,再也不会出现手脚畸形、姿势跑偏问题,写真、人设插画必备
- Depth深度控制:锁住画面空间层次、远近光影、立体透视,AI生成场景不再扁平发灰,实景氛围感直接拉满
- Segment语义分割:精准区分天空、地面、人物、建筑分区,分区单独改色、替换材质,精细化修图不用手动抠图
✅ ControlNet 万能标准工作流
上传参考控制图 → 调用对应预处理器解析结构 → 加载匹配ControlNet专用模型 → 接入主采样KSampler节点 → 微调控制权重 → 生成定型精准画面
✅ 黄金权重参数(直接套用不踩雷)
常规构图/人像:0.7--0.85;需要强贴合原图结构:0.85--0.9;慎用0.95以上高权重,容易导致画面僵硬、AI细节创意缺失,质感大打折扣。
✨ 第三部分:一键换风格、固定角色|Lora 高效用法合集
想要统一画风、专属人设、同款穿搭、固定IP形象,不用反复调提示词,加一个Lora节点就能直接搞定,轻量化不占内存,叠加使用效果更丰富。
✅ Lora 快速加载极简步骤
下载合规Lora模型文件 → 放入ComfyUI Loras专属文件夹 → 重启节点面板刷新列表 → 添加Lora加载节点 → 对接大模型节点 → 调节权重生效,全程30秒搞定。
✅ 三类高频Lora实用场景+权重搭配
- 画风类Lora(赛博朋克、水彩、国潮、复古胶片):权重0.5--0.7,轻量融合不抢主体,自然贴合画面氛围
- 人物/IP专属人设Lora:权重0.7--0.85,牢牢锁定五官、发型、身形特征,人物不脸崩、不跑偏
- 服饰/道具/场景单品Lora:权重0.4--0.6,点缀强化细节即可,避免权重过高导致画面杂乱违和
✅ Lora 必避翻车要点
同一张图叠加不超过3个Lora,过多会画面混乱、色彩冲突、细节崩坏;风格Lora+人物Lora搭配使用,分层调节权重,比单独叠加效果更干净高级,适配商单出图标准。
��️ 第四部分:原图风格一键复刻|IPAdapter 傻瓜式实操
拿到一张参考美图,想让AI完美复刻同款光影、同款色调、同款氛围感,不用逐字拆解提示词,IPAdapter 一键跨图迁移风格,新手也能零失误复刻质感。
✅ IPAdapter 核心优势(碾压普通图生图)
只复刻参考图风格、光影、色调、构图氛围,不照搬原图内容,不会出现版权雷同问题;人物创作中,可精准保留五官气质,同时更换穿搭、背景、动作,创作自由度拉满。
✅ 一键复刻标准工作流
加载参考风格图 → 插入IPAdapter专用节点 → 绑定主模型权重 → 微调风格相似度 → 搭配基础提示词补充细节 → 一键生成同款质感新图
✅ 黄金相似度权重
弱风格借鉴:0.4--0.5,保留自主创作空间;强氛围复刻:0.65--0.75,高度贴合参考图质感;不建议拉满1.0,极易画面同质化、失去创作新意。
�� 第五部分:从静态图到短视频|ComfyUI 视频生成全流程
不用额外剪映、不用复杂动效软件,ComfyUI 直接打通静态高清绘图 → 流畅AI短视频全链路,文生视频、图生视频、风格化动态短片一键搞定,自媒体短视频素材直接自给自足。
✅ 三条主流视频工作流(直接套用批量出片)
- 文生短视频:输入画面提示词 → 基础出图打底 → 时序帧插值补帧 → 统一动态强度 → 导出高清MP4,适合快速做创意氛围感短片
- 单图转动态:静态高清成品图导入 → 运动幅度轻量化调节 → 局部动态优化(人物发丝、衣摆、光影微动)→ 无损导出,适合写真、插画动态化变现
- 镜头运镜动态视频:搭配ControlNet深度/透视节点 → 模拟推拉摇移运镜效果 → 连贯生成多帧画面 → 合成顺滑短视频,堪比专业剪辑运镜质感
✅ 视频不卡顿、不闪屏关键参数
帧率默认15--24帧平衡流畅度与算力;运动强度偏低数值,避免画面抖动撕裂;优先使用内置高清补帧节点,不用第三方插件,减少画面模糊、画质压缩问题。
�� 合集总结:你以后只用这一套 ComfyUI 体系就够了
今天全套教程,帮你理清ComfyUI完整创作闭环,按需取用即可:
- 基础出图:标准节点连线+万能参数,快速产出高清原图
- 结构可控:ControlNet锁定构图、姿势、透视,画面不跑偏不畸形
- 风格人设:Lora叠加定制专属画风、固定IP角色,批量量产统一素材
- 质感复刻:IPAdapter一键迁移优质光影色调,省一半调参时间
- 动态变现:无缝生成AI短视频,图文素材一站式自给自足
后续需要哪一套现成工作流,直接评论区留言,打包分享可直接导入使用的预设模板,开箱即用不用重复搭节点。