深入了解diffusion model

diffusion model是如何运作的

会输入当时noise的严重程度,根据我们的输入来确定在第几个step,并做出不同的回应。

Denoise模组内部实际做的事情

产生一张图片和产生noise难度是不一样的,若denoise 模块产生一只带噪声的猫说明这个模块已经会画一只猫,所以产生一只带噪声的猫和产生图片中死亡噪声难度是不一样的

如何训练noise predictor

输入这张图片和step id 然后产生出一个预测中的噪声,但为了产生预测中的噪声,则需要输入这张图片的噪声是什么样子,才会学习如何把噪声输出。

noise predictor 的训练资料是人们创造出来的

Text-to-Image

Stable Diffusion

内部有三个元件

1、Text Encoder:好的文字的encoder,会把一段文字变成向量

2、Generation Model:可以用其他model(如diffusion Model),用一个粉红色的矩阵表示以恶搞噪声,将噪声与文字的encode产生一个中间产物(为一张图片被压缩后的结果)

3、Decoder:把图片压缩后的版本还原成原图

第一元件:如何评估影像生成的模型好坏(常用FID Frechet Inception Distance)

若这两组越接近,则表示生成的影像与原图更接近。

FID需要许多的图片

第三元件:它训练不需要文字的输入,可任意单凭影像的输入自动训练decoder

中间产物为:压缩后的图片

中间产物为:Latent Representation ,则应该如何训练decoder,把其还原成图片

需要训练一个Auto-encoder ,过程如下图所示:

输入和输出的结果越接近越好。把训练好的decoder直接拿出来将Latent Representation还原成图片即可。

第二元件:generation model

diffusion model的数学原理

Training

第三行表示从1-T sample一个数出来, 第四行表示从normal distribution sample一个

第五行红色方框表示T越大表示所加的噪声越多

想象中噪声是一点一点加进去的, 去噪声也是把噪声一点一点的抹去,实际上真正做的事情并没有把噪声一点一点的加进去,噪声一次加入,去噪声也是一次便去除

sampling

相关推荐
一点.点2 分钟前
计算机视觉的简单介绍
人工智能·深度学习·计算机视觉
量子-Alex3 分钟前
【目标检测】【Transformer】Swin Transformer
人工智能·目标检测·transformer
GISer_Jing4 分钟前
AI知识梳理——RAG、Agent、ReAct、LangChain、LangGraph、MCP、Function Calling、JSON-RPC
人工智能
Stara05111 小时前
基于多头自注意力机制(MHSA)增强的YOLOv11主干网络—面向高精度目标检测的结构创新与性能优化
人工智能·python·深度学习·神经网络·目标检测·计算机视觉·yolov11
YuSun_WK1 小时前
目标跟踪相关综述文章
人工智能·计算机视觉·目标跟踪
一切皆有可能!!1 小时前
RAG数据处理:PDF/HTML
人工智能·语言模型
kyle~1 小时前
深度学习---知识蒸馏(Knowledge Distillation, KD)
人工智能·深度学习
那雨倾城2 小时前
使用 OpenCV 将图像中标记特定颜色区域
人工智能·python·opencv·计算机视觉·视觉检测
whoarethenext2 小时前
c/c++的opencv的图像预处理讲解
人工智能·opencv·计算机视觉·预处理
金融小师妹3 小时前
应用BERT-GCN跨模态情绪分析:贸易缓和与金价波动的AI归因
大数据·人工智能·算法