comfyui是基于SD模型才能生成图像
comfyui相当于调用API的交互层
SD是已经被训练好的模型
生成原理 :将图片铺满噪点,然后根据步数逐步降噪,最终得到目标图像
正向扩散 :生噪过程,增加噪点
反向扩散:去噪过程,消除噪点
开始简单介绍comfyui任务流各个面板的功能
模型加载器
加载模型使用
clip文本编码器
是我们需要输入的关键词, 自动将输入的条件变成AI可以理解的文字,生成图像时需要两个条件一个是正面条件,一个是负面条件。
正面条件:是我们想生成的图片的描述
负面条件:生成图像时不需要部分的描述
K采样器

1.随机种:默认0,可每次生成的图片完全随机
2.运行后操作
- 固定:条件与生成的种子固定,可以做到生成的图片完全一样
- 增加/减少:每次生成图片的种子数字+/-1
- 随机:完全随机

3.步数:去噪的次数,一般20-40之间,建议30-40。
4.CFG:关键词和图片的相关性,一般3-9之间,建议8。数值过大可能会关联出错,导致完全没有关联。
5.采样器:推荐euler_ancestral或者dpmpp_2m_sde百搭
6.调度器:降噪时的变化曲线,一般用前三个
- 正常:均速降噪
- karras:慢速-〉快速
- exponential:快速-〉慢速-〉停止

7.降噪:默认1,在做文生图时尽量不要动。图生图时,数值越大与原图的相似度越低,反之数值越小与原图相似度越接近
Latent

决定生成图片的尺寸以及分辨率
- 不同模型版本的基础尺寸建议范围
- 1.5版本大模型:512-768
- 2.1版本大模型:768-1024
- SDXL或SD3版本大模型:1024上下
VAE解码器

采样器跑完后需要使用VAE解码器转换为图像。这样就可以生成图片了