开始 ComfyUI 的 AI 绘图之旅-Flux.1 ControlNet (十)

文章标题

  • [一、ComfyUI Flux.1 ControlNet 示例](#一、ComfyUI Flux.1 ControlNet 示例)
    • [1.FLUX.1 ControlNet 模型介绍](#1.FLUX.1 ControlNet 模型介绍)
    • [2.FLUX.1-Canny-dev 完整版工作流](#2.FLUX.1-Canny-dev 完整版工作流)
      • [2.1 工作流及相关素材](#2.1 工作流及相关素材)
      • [2.2 手动模型下载](#2.2 手动模型下载)
      • [2.3 按步骤完成工作流的运行](#2.3 按步骤完成工作流的运行)
      • [2.4 开始你的尝试](#2.4 开始你的尝试)
    • [3.FLUX.1-Depth-dev-lora 工作流](#3.FLUX.1-Depth-dev-lora 工作流)
      • [3.1 工作流及相关素材](#3.1 工作流及相关素材)
      • [3.2 手动模型下载](#3.2 手动模型下载)
      • [3.3 按步骤完成工作流的运行](#3.3 按步骤完成工作流的运行)
      • [3.4 开始你的尝试](#3.4 开始你的尝试)
    • [4.社区版本 Flux Controlnets](#4.社区版本 Flux Controlnets)

一、ComfyUI Flux.1 ControlNet 示例

本文将使用 Flux.1 ControlNet 来完成 ControlNet 的工作流示例。

1.FLUX.1 ControlNet 模型介绍

FLUX.1 Canny 和 Depth 是由 Black Forest Labs 推出的 ​FLUX.1 Tools 套件 中的两个强大模型。这套工具旨在为 FLUX.1 添加控制和引导能力,使用户能够修改和重新创建真实或生成的图像。

FLUX.1-Depth-devFLUX.1-Canny-dev 都是 12B 参数的 Rectified Flow Transformer 模型,能够基于文本描述生成图像,同时保持与输入图像的一致性。其中 Depth 版本通过深度图提取技术来维持源图像的空间结构,而 Canny 版本则利用边缘检测技术来保持源图像的结构特征,使得用户可以根据不同需求选择合适的控制方式。

这两个模型都具有以下特点:

  • 顶级的输出质量和细节表现
  • 出色的提示遵循能力,同时保持源图像的结构布局
  • 使用引导蒸馏技术训练,提高效率
  • 开放权重供社区研究使用
  • 提供 API 接口(pro 版)和开源权重(dev 版)

此外,Black Forest Labs 还提供了从完整模型中提取的 FLUX.1-Depth-dev-loraFLUX.1-Canny-dev-lora 适配器版本,它们可以应用于 FLUX.1 [dev] 基础模型,以较小的文件体积提供类似的功能,特别适合资源受限的环境。

本文将以分别以完整版本的 FLUX.1-Canny-devFLUX.1-Depth-dev-lora 为例,完成ComfyUI 中 Flux ControlNet 的工作流示例。
Metadata 中包含工作流 json 的图片可直接拖入 ComfyUI 或使用菜单 `Workflows` -> `Open(ctrl+o)` 来加载对应的工作流。 本篇示例中的图片包含对应模型的下载链接,直接拖入 ComfyUI 将会自动提示下载。

对于图像预处理器,你可以使用以下自定义节点来完成图像的预处理,在本示例中,我们将提供处理过的图片作为输入。

2.FLUX.1-Canny-dev 完整版工作流

2.1 工作流及相关素材

请下载下面的工作流图片,并拖入 ComfyUI 以加载工作流

请下载下面的图片,我们将使用它来作为输入图片

2.2 手动模型下载

如果你之前使用过[完整版本的 Flux 相关工作流](/zh-CN/tutorials/flux/flux-1-text-to-image),那么你仅需要下载 **flux1-canny-dev.safetensors** 这个模型文件。 由于你需要先同意 [black-forest-labs/FLUX.1-Canny-dev](https://huggingface.co/black-forest-labs/FLUX.1-Canny-dev) 的协议,所以请访问 [black-forest-labs/FLUX.1-Canny-dev](https://huggingface.co/black-forest-labs/FLUX.1-Canny-dev) 页面,确保你参照下图同意了对应的协议。 ![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/0612fb39b43e4e3ca802d6ac74fd1793.png)

完整模型列表:

安装aria2快速下载模型,几乎能将我家1000M的宽带跑满,每秒80~90M,接下来的介绍模型都会给出安装命令。

bash 复制代码
apt install aria2
bash 复制代码
aria2c https://huggingface.co/black-forest-labs/FLUX.1-Canny-dev/resolve/main/flux1-canny-dev.safetensors?download=true -o SourceCode/ComfyUI/models/diffusion_models/flux1-canny-dev.safetensors --auto-file-renaming=false --allow-overwrite=false

aria2c https://huggingface.co/black-forest-labs/FLUX.1-Depth-dev-lora/resolve/main/flux1-depth-dev-lora.safetensors?download=true -o SourceCode/ComfyUI/models/loras/flux1-depth-dev-lora.safetensors --auto-file-renaming=false --allow-overwrite=false

小技巧:你要是打不开https://huggingface.co,可以将其换成为https://hf-mirror.com/试一试

文件保存位置:

复制代码
ComfyUI/
├── models/
│   ├── text_encoders/
│   │   ├── clip_l.safetensors
│   │   └── t5xxl_fp16.safetensors
│   ├── vae/
│   │   └── ae.safetensors
│   └── diffusion_models/
│       └── flux1-canny-dev.safetensors

2.3 按步骤完成工作流的运行

  1. 确保在Load VAE中加载了ae.safetensors
  2. 确保在Load Diffusion Model加载了flux1-canny-dev.safetensors
  3. 确保在DualCLIPLoader中下面的模型已加载:
    • clip_name1: t5xxl_fp16.safetensors
    • clip_name2: clip_l.safetensors
  4. Load Image节点中上传了文档中提供的输入图片
  5. 点击 Queue 按钮,或者使用快捷键 Ctrl(cmd) + Enter(回车) 来运行工作流

2.4 开始你的尝试

尝试使用FLUX.1-Depth-dev 模型完成 Depth 版本的工作流

你可以使用下面的图片作为输入

或者借助下面自定义节点中完成图像预处理:

3.FLUX.1-Depth-dev-lora 工作流

LoRA 版本的工作流是在完整版本的基础上,添加了 LoRA 模型,相对于完整版本的 Flux 工作流,增加了对应 LoRA 模型的加载使用节点。

3.1 工作流及相关素材

请下载下面的工作流图片,并拖入 ComfyUI 以加载工作流

请下载下面的图片,我们将使用它来作为输入图片

3.2 手动模型下载

如果你之前使用过[完整版本的 Flux 相关工作流](/zh-CN/tutorials/flux/flux-1-text-to-image),那么你仅需要下载 **flux1-depth-dev-lora.safetensors** 这个模型文件。

完整模型列表:

文件保存位置:

复制代码
ComfyUI/
├── models/
│   ├── text_encoders/
│   │   ├── clip_l.safetensors
│   │   └── t5xxl_fp16.safetensors
│   ├── vae/
│   │   └── ae.safetensors
│   ├── diffusion_models/
│   │   └── flux1-dev.safetensors
│   └── loras/
│       └── flux1-depth-dev-lora.safetensors

3.3 按步骤完成工作流的运行

  1. 确保在Load Diffusion Model加载了flux1-dev.safetensors
  2. 确保在LoraLoaderModelOnly中加载了flux1-depth-dev-lora.safetensors
  3. 确保在DualCLIPLoader中下面的模型已加载:
    • clip_name1: t5xxl_fp16.safetensors
    • clip_name2: clip_l.safetensors
  4. Load Image节点中上传了文档中提供的输入图片
  5. 确保在Load VAE中加载了ae.safetensors
  6. 点击 Queue 按钮,或者使用快捷键 Ctrl(cmd) + Enter(回车) 来运行工作流

3.4 开始你的尝试

尝试使用FLUX.1-Canny-dev-lora 模型完成 Canny 版本的工作流

借助 ComfyUI-Advanced-ControlNet 或者 ComfyUI ControlNet aux 完成图像预处理

4.社区版本 Flux Controlnets

XLab 和 InstantX + Shakker Labs 已经为 Flux 发布了 Controlnet。

InstantX:

XLab : flux-controlnet-collections

将这些文件放在 ComfyUI/models/controlnet 目录下。

你可以访问Flux Controlnet 示例来获取对应工作流图片,并使用这里的图片作为输入图片。

相关推荐
格林威2 小时前
Linux使用-MySQL的使用
linux·运维·人工智能·数码相机·mysql·计算机视觉·视觉检测
币须赢2 小时前
机器人智能系统架构:小脑
人工智能·机器人
陈敬雷-充电了么-CEO兼CTO2 小时前
BLIP-2革新多模态预训练:QFormer桥接视觉语言,零样本任务性能飙升10.7%!
人工智能·gpt·机器学习·机器人·多模态·blip·多模态大模型
victory04312 小时前
疾病语音数据集 WAV格式音频
深度学习·音视频
虫无涯2 小时前
【详细教程】如何在Ubuntu上本地部署Dify?
人工智能
极客BIM工作室2 小时前
遗传算法属于机器学习吗?
人工智能·机器学习
槐夏十八2 小时前
Suno API 的对接和使用
人工智能
guidovans3 小时前
Crawl4AI精准提取结构化数据
人工智能·python·tensorflow