【SD】深入理解Stable Diffusion与ComfyUI的使用

【SD】深入理解Stable Diffusion与ComfyUI的使用

      • [1. Stable Diffusion(SD)原理概述](#1. Stable Diffusion(SD)原理概述)
      • [2. 各部件详解](#2. 各部件详解)
      • [3. SD的工作流程](#3. SD的工作流程)
      • [4. ComfyUI与SD的结合](#4. ComfyUI与SD的结合)
      • [5. 总结](#5. 总结)

1. Stable Diffusion(SD)原理概述

  1. 整体结构:SD不是单一模型,而是由三个模型组成,包括文本编码器(Clip)、2. 生成模型(unit)、变分自编码器(VAE)。
    输入输出:最基础的输入为文本和随机变量(Latent Vector),输出为图片。

2. 各部件详解

  1. 文本编码器(Clip)

专门为SD设计的,采用transformer结构。

训练步骤包括:

限制性预训练:使用图片和文本描述数据集,训练文本编码器和图片编码器,使输出向量尽可能接近。

进一步训练:使用物体名称和描述,训练文本编码器解码出图片含义。

  1. 生成模型(unit)

加噪降噪过程:通过VAE的encoder将图片转换成与Latent Vector相同大小的格式,然后逐步加噪并降噪,生成中间结果。

  1. 变分自编码器(VAE)

包括编码器和解码器,将图片编码成较小格式,再解码回原大小,训练目标是最小化原始图片与解码结果的差异。

利用VAE可以从噪声中生成图片,即输入随机噪声至解码器,生成图片。

3. SD的工作流程

文本通过文本编码器转换为向量。

向量与随机变量结合,控制生成内容的随机性。

使用unit进行加噪降噪,生成中间结果。

中间结果通过VAE解码器还原成最终图片。

4. ComfyUI与SD的结合

ComfyUI用于低显存生成图片,但具体如何结合SD的原理和ComfyUI的操作未在文本中详述。

5. 总结

SD通过三个模型的协同工作,实现了文本到图片的生成。

Clip作为文本编码器,负责将文本转换为向量。

Unit负责生成过程的加噪和降噪,VAE则用于图片的编码和解码,最终还原成清晰图片。

整个流程涉及文本处理、随机性控制、图片生成和还原,是一个复杂但高效的生成系统。

相关推荐
AI绘画小331 天前
【comfyui教程】comfyui古风一键线稿上色,效果还挺惊艳!
人工智能·ai作画·stable diffusion·aigc·comfyui
AI绘画月月1 天前
【comfyui教程】ComfyUI有趣工作流推荐:快速换脸,创意随手掌握!
人工智能·ai作画·stable diffusion·aigc·comfyui
AI绘画咪酱1 天前
【AI绘画】AI绘图教程|stable diffusion(SD)图生图涂鸦超详细攻略,教你快速上手
人工智能·ai作画·stable diffusion·aigc·midjourney
HuggingAI1 天前
stable diffusion 大模型
人工智能·ai·stable diffusion·ai绘画
HuggingAI2 天前
stable diffusion图生图
人工智能·ai·stable diffusion·ai绘画
HuggingAI2 天前
stable diffusion文生图
人工智能·stable diffusion·ai绘画
云端奇趣2 天前
Stable Diffusion 绘画技巧分享,适合新手小白的技巧分享
人工智能·stable diffusion
cskywit3 天前
Stable diffusion 3.5本地运行环境配置记录
stable diffusion
ai绘画-安安妮4 天前
视频号带货书籍,一天佣金1200+(附视频教程)
人工智能·stable diffusion·aigc
papapa键盘侠4 天前
Stable Diffusion Web UI 1.9.4常用插件扩展-WD14-tagger
前端·ui·stable diffusion