Stable Diffusion 系列教程 - 5 ControlNet

ControlNet和LORA的定位都是对大模型做微调的额外网络**。作为入门SD的最后一块拼图是必须要去了解和开发的。为什么ControlNet的影响力如此的大?在它之前,基于扩散模型的AIGC是非常难以控制的,扩散整张图像的过程充满了随机性。这种随机性并不会影响到日常的自娱自乐,但一些真正面对具体需求的岗位则无法忍受这种抽卡式的尝试。ControlNet的核心是基于一些额外输入的信息来给扩散模型的生成提供明确的指引,整个过程分为Annotator和Diffusion。Annotator(预处理器/注释器):从图片中提取对ControlNet有用的额外信息。Diffusion:根据这些额外信息控制扩散生成的走向,在ControlNet的指导下生成图像作品。**

单个ControlNet的大小在1.4G左右,上面为五个应用最为广泛的控制模型。模型的名命规则:v11代表版本为1.1 ,p代表在生产环境下可以直接使用,sd15代表底模Stable Diffusion的版本:

模型的下载路径为:lllyasviel/ControlNet-v1-1 at main (huggingface.co) 。这里可以下载我们想用的所有模型,但是切记要把yaml文件也下载下来,其用来定义模型的配置。将成对的模型文件放在目录stable_diffusion\sd-webui-aki-v4.2-XXEY\extensions\sd-webui-controlnet\models下。注意:老版本没有yaml文件,新版本的模型有yaml文件,如果不下载就用不了这个模型。

需要注意的是: ControINet之于整个AI绘画过程,其实也就是诸多环节里面的"一环"而已。AI还是会综合参考提示词、图生图、Embeddings、LoRA等各个方面的东西来综合的实现AIGC。

相关推荐
长不大的蜡笔小新2 天前
基于Stable Diffusion的多模态图像生成与识别系统
stable diffusion
米汤爱学习2 天前
stable-diffusion-webui【笔记】
笔记·stable diffusion
fantasy_arch3 天前
Transformer vs Stable Diffusion vs LLM模型对比
深度学习·stable diffusion·transformer
盼小辉丶3 天前
PyTorch实战——基于文本引导的图像生成技术与Stable Diffusion实践
pytorch·深度学习·stable diffusion·生成模型
Blossom.1183 天前
工业级扩散模型优化实战:从Stable Diffusion到LCM的毫秒级生成
开发语言·人工智能·python·深度学习·机器学习·stable diffusion·transformer
盼小辉丶4 天前
PyTorch实战(21)——扩散模型(Diffusion Model)
pytorch·深度学习·stable diffusion·生成模型
Tiger Shi4 天前
使用Qt调用stable-diffusion.cpp做一个客户端
人工智能·stable diffusion
byte轻骑兵4 天前
共绩算力 RTX 5090 极速部署 Stable Diffusion WebUI:新手也能秒开 AI 绘图工作站
人工智能·stable diffusion
伟大的大威5 天前
在 NVIDIA DGX Spark部署 Stable Diffusion 3.5 并使用ComfyUI
stable diffusion·spark·comfyui
迈火8 天前
APISR IN COMFYUI:提升ComfyUI图像超分辨率的强力插件
图像处理·人工智能·计算机视觉·stable diffusion·aigc·音视频·midjourney