深入了解diffusion model

diffusion model是如何运作的

会输入当时noise的严重程度,根据我们的输入来确定在第几个step,并做出不同的回应。

Denoise模组内部实际做的事情

产生一张图片和产生noise难度是不一样的,若denoise 模块产生一只带噪声的猫说明这个模块已经会画一只猫,所以产生一只带噪声的猫和产生图片中死亡噪声难度是不一样的

如何训练noise predictor

输入这张图片和step id 然后产生出一个预测中的噪声,但为了产生预测中的噪声,则需要输入这张图片的噪声是什么样子,才会学习如何把噪声输出。

noise predictor 的训练资料是人们创造出来的

Text-to-Image

Stable Diffusion

内部有三个元件

1、Text Encoder:好的文字的encoder,会把一段文字变成向量

2、Generation Model:可以用其他model(如diffusion Model),用一个粉红色的矩阵表示以恶搞噪声,将噪声与文字的encode产生一个中间产物(为一张图片被压缩后的结果)

3、Decoder:把图片压缩后的版本还原成原图

第一元件:如何评估影像生成的模型好坏(常用FID Frechet Inception Distance)

若这两组越接近,则表示生成的影像与原图更接近。

FID需要许多的图片

第三元件:它训练不需要文字的输入,可任意单凭影像的输入自动训练decoder

中间产物为:压缩后的图片

中间产物为:Latent Representation ,则应该如何训练decoder,把其还原成图片

需要训练一个Auto-encoder ,过程如下图所示:

输入和输出的结果越接近越好。把训练好的decoder直接拿出来将Latent Representation还原成图片即可。

第二元件:generation model

diffusion model的数学原理

Training

第三行表示从1-T sample一个数出来, 第四行表示从normal distribution sample一个

第五行红色方框表示T越大表示所加的噪声越多

想象中噪声是一点一点加进去的, 去噪声也是把噪声一点一点的抹去,实际上真正做的事情并没有把噪声一点一点的加进去,噪声一次加入,去噪声也是一次便去除

sampling

相关推荐
Rubin智造社4 小时前
安全先行·自主编程|Claude Code Opus 4.7深度解读:AI开发进入合规量产时代
人工智能·anthropic·claude opus 4.7·mythos preview·xhigh努力等级·/ultrareview命令·自主开发ai
xinlianyq4 小时前
全球 AI 芯片格局生变:英伟达主导训练,国产算力崛起推理
人工智能
ShineWinsu5 小时前
AI训练硬件指南:GPU算力梯队与任务匹配框架
人工智能
范桂飓5 小时前
精选 Skills 清单
人工智能
码农的日常搅屎棍5 小时前
AIAgent开发新选择:OpenHarness极简入门指南
人工智能
AC赳赳老秦5 小时前
OpenClaw生成博客封面图+标题,适配CSDN视觉搜索,提升点击量
运维·人工智能·python·自动化·php·deepseek·openclaw
萝卜小白5 小时前
算法实习Day04-MinerU2.5-pro
人工智能·算法·机器学习
geneculture5 小时前
从人际间性到人机间性:进入人机互助新时代——兼论融智学视域下人类认知第二次大飞跃的理论奠基与实践场域
人工智能·融智学的重要应用·哲学与科学统一性·融智时代(杂志)·人际间性·人机间性·人际间文性
东方品牌观察5 小时前
观澜社张庆解析AI:便利与挑战并存
人工智能
w_t_y_y5 小时前
Agent 开发框架(一)有哪些框架&&A2A协议
人工智能