Stable Diffssion超详细讲解持续更新中

Stable Diffusion超详细解释

https://zhuanlan.zhihu.com/p/632809634

文本-->clip text encoder -->text Embeddings特征矩阵

完成对文本信息的编码后,就会输入到SD模型的"图像优化模块"中对图像的优化进行"控制"。

如果是图生图任务,我们在输入文本信息的同时,还需要将原图片通过图像编码器(VAE Encoder)生成Latent Feature(隐空间特征)作为输入。

如果是文生图任务,我们只需要输入文本信息,再用random函数生成一个高斯噪声矩阵作为Latent Feature的"替代"输入到SD模型的"图像优化模块"中.

Stable Diffusion整体的训练逻辑:

  1. 从数据集中随机选择一个训练样本
  2. 从K个噪声量级随机抽样一个timestep 𝑡
  3. 将timestep 𝑡对应的高斯噪声添加到图片中
  4. 将加噪图片输入U-Net中预测噪声
  5. 计算真实噪声和预测噪声的L2损失
  6. 计算梯度并更新SD模型参数

clip

vae

unet

前向扩散过程

往一张正常图片里 逐步加入高斯噪声

注意:可以从初始数据x0和任意扩散步数ki,采样得到对应的数据xi

反向扩散过程

与正向完全相反,训练目标即是将模型预测的噪声和真实的噪声做回归分析

训练流程:

  1. 随机选择一个时间步,embedding it.
  2. 加高斯噪声
  3. 将time embedding和noisy image 丢给unet,输出预测的noise,和真实noise计算L2损失
  4. 反复多个epoch
  1. 噪声的添加

在训练过程中,模型会对每张图像添加不同强度的噪声。噪声的强度用一个时间步 ttt来表示,ttt的范围通常是从 0 到 1000,共有 1001 种不同的噪声强度。较小的 ttt表示噪声较少,而较大的 ttt表示噪声较多。

  1. 时间嵌入(Time Embedding)

时间嵌入是将时间步 ttt转换为一个高维的向量表示,这个向量将被输入到模型中,告诉模型当前图像的噪声强度。时间嵌入通常通过一种位置编码(positional encoding)技术来实现。

4 训练过程中的每次迭代

在训练过程中,每次迭代会随机选择一个时间步 ttt,然后生成对应强度的噪声并添加到原始图像中。具体步骤如下:

  1. 选择随机时间步 ttt:使用随机函数生成一个从 0 到 1000 的整数 ttt。
  2. 生成噪声:根据时间步 ttt生成对应强度的高斯噪声。
  3. 添加噪声到图像:将生成的噪声添加到原始图像中,得到一个带噪声的图像。
  4. 时间嵌入:将时间步 ttt进行嵌入,得到一个时间嵌入向量。
  5. 输入模型:将带噪声的图像和时间嵌入向量一起输入到模型中,模型会学习从带噪声的图像中去除噪声。

加噪和去噪过程都是逐步进行的,我们假设进行𝐾步,那么每一步,SD都要去预测噪声,从而形成"小步快跑的稳定去噪",类似于移动互联网时代的产品逻辑,这是足够伟大的关键一招

SD模型在生成图片时,需要输入prompt提示词,那么这些文本信息是如何影响图片的生成呢?

答案非常简单:通过注意力机制。

在sd的训练中,每个训练样本都对应一个文本描述的标签,将标签通过clip text encoder 输出text embedding(一个矩阵向量),并将text embeddings以**cross attention****(专题讲)**的形式与u-net耦合并注入,使得每次输入的图片信息与文本信息进行融合训练

我们在这里可以小结一下SD模型训练时的输入,一共有三个部分组成:图片、文本以及噪声强度。其中图片和文本是固定的,而噪声强度在每一次训练参数更新时都会随机选择一个进行叠加。

在我们进行Stable Diffusion模型训练时,VAE 部分和 CLIP 部分都是冻结的 ,所以说官方在训练SD系列模型的时候,训练过程一般主要训练 U-Net 部分

训练流程:

训练的输入: 图片,文本 噪声强度

推理流程:

相关推荐
喜欢吃豆25 分钟前
GraphRAG 技术教程:从核心概念到高级架构
人工智能·架构·大模型
王哈哈^_^25 分钟前
YOLOv11视觉检测实战:安全距离测算全解析
人工智能·数码相机·算法·yolo·计算机视觉·目标跟踪·视觉检测
AI浩43 分钟前
FeatEnHancer:在低光视觉下增强目标检测及其他任务的分层特征
人工智能·目标检测·目标跟踪
深度学习lover1 小时前
<数据集>yolo航拍交通目标识别数据集<目标检测>
人工智能·python·yolo·目标检测·计算机视觉·航拍交通目标识别
商汤万象开发者1 小时前
LazyLLM教程 | 第13讲:RAG+多模态:图片、表格通吃的问答系统
人工智能·科技·算法·开源·多模态
IT管理圈1 小时前
AI agent正在重塑组织:麦肯锡的“智能体组织“解读
人工智能
YuanDaima20481 小时前
[CrewAI] 第5课|基于多智能体构建一个 AI 客服支持系统
人工智能·笔记·多智能体·智能体·crewai
Coovally AI模型快速验证1 小时前
视觉语言模型(VLM)深度解析:如何用它来处理文档
人工智能·yolo·目标跟踪·语言模型·自然语言处理·开源
兰亭妙微2 小时前
用户体验的真正边界在哪里?对的 “认知负荷” 设计思考
人工智能·ux