ComfyUI 完全入门:ControlNet 使用教程

今天继续给大家分享 ComfyUI 的入门必备技能:ControlNet。

ControlNet 提供了十几种生成图片的控制方式,有的可以控制画面的结构,有的可以控制人物的姿势,还有的可以控制图片的画风,这对于提高 AI 绘画的质量特别有用;基于 ControlNet 的能力,炼丹师们可以将 AI 绘画拓展到很多的应用场景,比如艺术二维码、光影文字、线稿上色、老照片修复、图片风格转绘、IP 图片创作等等。

ComfyUI 介绍

很多同学对 ComfyUI 可能还不太了解,我这里做一个简单的介绍。

在 AI 绘画领域,Stable Diffusion 因其开源特性而受到广泛的关注和支持,背后聚拢了一大批的应用开发者和艺术创作者,是 AI 绘画领域当之无愧的王者。

目前使用 Stable Diffusion 进行创作的工具主要有两个:Stable Diffusion WebUI 和 ComfyUI。

Stable Diffusion WebUI 开箱即用,各项功能齐全,社区也有很多的插件支持,入门比较简单,适合新手,但是可定制性稍微差点,很多作品不容易传播复现,使用 API 进行操作也有一定的难度。

ComfyUI 出来的晚一点,但是它的可定制性很强,可以让创作者搞出各种新奇的玩意,通过工作流的方式,也可以实现更高的自动化水平,创作方法更容易传播复现,发展势头特别迅猛。但是 ComyUI 的上手门槛有点高,对 Stable Diffusion 以及各种扩展能力的原理需要有一定的理解,动手能力要求也比较高。

为了方便大家尽快上手 ComfyUI,本系列文章将会介绍一些 ComfyUI 的概念和使用方法,让大家更快的掌握 ComfyUI 的使用技巧,创作出自己独特的艺术作品。

ComfyUI 安装部署

本地安装部署

文末可领取一键部署包!!

使用 ControlNet

安装插件

首先说明,如果你使用了上面云端服务器我制作的镜像,就无需安装插件,直接使用即可。如果你是本地安装部署,那么请耐心按照下面的方式安装插件。

ComfyUI 自带了一些简单的 ControlNet 节点,不过这还远远不够,我们需要安装一些插件来增强 ControlNet 方面的处理能力。

这里推荐两个插件:(文末可下载)

ControlNet 预处理器插件:包含各种常用的 ControlNet 预处理器。

高级 ControlNet:支持 ControlNet 调度和遮罩等高级特性。

在 ComfyUI 管理器中点击"通过 Git URL 安装",输入上边的链接,即可开始安装。

安装成功后,不要忘了重启 ComfyUI,刷新浏览器页面。

不带预处理器的 ControlNet

ControlNet 主要由 3 个节点组成:ControlNet 加载器、ControlNet 应用和参考图片,下边一一分解介绍。

ControlNet 加载器:这是用来加载 ControlNet 模型的。ComfyUI 内置了两个 ControlNet 模型加载器,一个是"ControlNet 加载器",另一个就是这里使用的"DiffControlNet 加载器"。"DiffControlNet 加载器"不仅支持加载普通的 ControlNet 模型,还支持加载 diffusers 格式的 ControlNet 模型,更为通用一些。这里我们用它来加载一个普通的深度 ControlNet 模型,注意 ControlNet 模型区分 SD1.5 和 SDXL,选择 SD 基础模型时一定要搭配起来,不能混用。

•参考图片:ControlNet 要实施推理控制,就需要一定的参考,比如姿势、深度、线稿、配色、人物形象等。在上图的工作流中我们直接提供了一张深度图,另外我们也可以提供正常图片,让 ControlNET 预处理器从中提取,下文会给出一个预处理器的使用示例。

•ControlNet 应用:封装 ControlNet,汇集模型、参考图片和一些参数,共同计算得出新的提示词条件。ControlNET 应用默认有 3 个可以手动控制的参数:

◦强度:ControlNET 模型对生成图片的影响力。太高可能会让参考特征过于明显,太低又丢失了 ControlNet 的控制力,需要根据实际情况调整。

◦开始时间:在生成图片的第几步引入 ControlNET,取值范围 0-1。一般前几步会确定图片中的主体内容,如果使用的是线稿类模型,这个时间不能设置的太晚。

◦结束时间:在生成图片的第几步退出 ControlNET,取值范围 0-1。如果想在细节上自由发挥的更多,可以将这个值改小一点试试。

我们再看一下这几个节点是如何连接到一起的。

我们可以认为"DiffControlNet 加载器"和"加载图像"都是为"ControlNet 应用"提供必需参数的,上图中的"连接线 1"和"连接线 2"就起到提供参数的作用。

最后我们再看一下 ControlNet 节点的输入和输出,这里的输入主要有两块:

SD 基础模型:上面已经提过,ControlNet 模型不能独立工作,所以上图中的"ControlNet 加载器"需要以模型作为输入,图中的"模型"接入点要连接到名为"Checkpoint 加载器"的节点,以获取 SD 基础模型。

提示词编码条件:这里分为"正面条件"和"负面条件",ControlNet 应用会对这些条件进行加工处理,在其中加入当前 ControlNet 提取到的控制信息。需要把它们连接到"CLIP 文本编码器"节点,"CLIP 文本编码器"就是编码提示词,生成初始条件的;如果使用多个 ControlNet,我们也可以把它们连接到串联 ControlNet 应用输出的"正面条件"和"负面条件"。在一些简单的"ControlNet 应用"节点上,你可能只能看到一个"条件",这时候的"条件"对应的是"正面条件"。

ControlNet 应用的输出就是"正面条件"和"负面条件",需要将它们连接到采样器,采样器会使用这些条件进行采样,最终生成出符合条件的图片。注意如果"ControlNet 应用"的输入只有一个"条件",那么我们就无需通过"ControlNet"处理负面条件。

下图是"ControlNet 应用(高级)"有两个条件参数的连接线示例:

下图是"ControlNet 应用"只有一个条件的连接线示例:

带预处理器的 ControNet

我们再看一个使用预处理器来提取参考信息的例子:

在这个例子中,我们增加了三个新的节点:

1.Openpose 姿态预处理器:用于从加载的原始参考图像中提取人物姿态信息,包括身体、面部和手部信息。它接收图像和分辨率,输出一个新的图像。输入的图像就是原始要参考的图片,输出的图像是一个姿态图片(见上图中的预览图片);分辨率则用来控制输出的姿态图片的最短边的长度。

不同的预处理器会有不同的参数组合,如果你不知道应该怎么设置,可以参考我之前写的 ControlNet 系列文章:

  1. 完美像素:用来计算预处理器生成的姿态图片的分辨率,也就是姿态图片的最短边的长度,这个节点中的参数都是用来计算这个最短边的。所谓完美就是通过匹配姿态图片和生成图片的尺寸,生成出最优分辨率的姿态图片,供 ControlNet 使用。

◦图像:ControlNet 使用的原始参考图片,完美像素会从中获取图片的宽度和高度信息。

◦宽度和高度:要生成图片的宽度和高度。

◦拉伸模式:"仅拉伸"和"裁剪并拉伸"都会先选择"宽度"和"高度"参数中的最大值,然后按照原始参考图片的宽高比例计算出姿态图片的另一条边的长度;"拉伸并填充"则会先选择"宽度"和"高度"参数中的最小值,然后按照原始参考图片的宽高比例计算出姿态图片的另一条边长度。

举个例子,假设原始参考图片的尺寸是 512×768(比例是 1:1.5),输入的"宽度"和"高度"分别是 1024、640,使用"裁剪并拉伸"模式时,会先选择宽度(因为 1024 大于 640),那么完美像素计算出来的姿态图片尺寸就是 1024 * 1536(1024*1.5),输出的分辨率是最短边的长度 1024;如果选择"拉伸并填充"模式,会先选择高度(因为 640<1024),那么完美像素计算出来的姿态图片尺寸就是 427(640/1.5)*640,输出的分辨率还是最短边的长度 427。

  1. 预览图像:预览 ControlNet 预处理器生成的参考图片,这个节点不是必需的,只是想看看预处理器提取的特征效果如何。这个图像将被送到"ControlNet 应用"中进行编码处理。如果我们已经有了这个参考图片,前边的预处理器、完美像素都是可以不要的。

写在最后

感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

相关推荐
4v1d1 分钟前
边缘计算的学习
人工智能·学习·边缘计算
风之馨技术录5 分钟前
智谱AI清影升级:引领AI视频进入音效新时代
人工智能·音视频
sniper_fandc15 分钟前
深度学习基础—Seq2Seq模型
人工智能·深度学习
goomind18 分钟前
深度学习模型评价指标介绍
人工智能·python·深度学习·计算机视觉
youcans_19 分钟前
【微软报告:多模态基础模型】(2)视觉理解
人工智能·计算机视觉·大语言模型·多模态·视觉理解
棱角~~35 分钟前
10款PDF合并工具讲解与推荐!!!
人工智能·经验分享·其他·pdf·学习方法
hgdlip36 分钟前
本机ip地址和网络ip地址一样吗
网络·网络协议·tcp/ip·网络ip地址·本机ip地址
晚点吧42 分钟前
视频横屏转竖屏播放-使用人脸识别+目标跟踪实现
人工智能·目标跟踪·音视频
风走茶未凉1 小时前
目标检测(object detection)
人工智能·目标检测·目标跟踪
风雨中的小七1 小时前
解密prompt系列42. LLM通往动态复杂思维链之路
prompt