扩散模型之(十三)条件生成 Conditioned Generation

1.概述

在使用 ImageNet 等各类图像数据集进行具有条件信息的图像训练生成模型时,通常会根据类别标签或一段描述性文本生成条件样本。本文进一步展开介绍条件生成。

2. Classifier Guided Diffusion

为了将类别信息明确地纳入扩散过程,Dhariwal 和 Nichol (2021) 在噪声图像上 训练了一个分类器 。基于梯度 ,通过改变噪声预测来引导扩散采样过程向条件信息 (目标类别标签)靠拢。Review预测模型:

可以写出联合分布的得分函数如下:

因此,一种新的 classifier-guided predictor 形式如下:

为了控制分类器引导的强度,我们可以添加权重 到梯度计算部分,由此得到:

​​​​​​​

由此得到的消融扩散模型ablated diffusion model (ADM ))和带有附加分类器指导的模型(ADM-G)能够取得比 SOTA 生成模型比如 BigGAN 更好的结果。

图1 利用分类器的引导实现DDPM和DDIM进行条件生成

此外, Dhariwal 和 Nichol (2021)对 U-Net 架构进行了一些改进,结果表明其性能优于使用扩散模型的 GAN。这些架构改进包括更大的模型深度/宽度、更多的注意力头、多分辨率注意力机制、用于上采样/下采样的 BigGAN 残差块、残差连接缩放以及自适应组归一化(AdaGN)。

3. Classifier-Free Guidance

没有独立分类器尽管如此,仍然可以通过结合条件扩散模型和非条件扩散模型的得分来运行条件扩散步骤(Ho & Salimans,2021)。令非条件去噪扩散模型通过得分估计器进行参数化以及条件模型通过参数化这两个模型可以通过单个神经网络进行学习。具体来说,就是条件扩散模型。使用配对数据进行训练其中,条件信息会周期性地随机丢弃,这样模型也知道如何无条件地生成图像,即:

隐式分类器的梯度可以用条件得分估计器和非条件得分估计器来表示。一旦代入分类器引导的修正得分,该得分就不再依赖于单独的分类器。

​​​​​​​

实验结果表明,CFG可以在 FID(区分合成图像和生成图像)和 IS(质量和多样性)之间取得良好的平衡。

引导扩散模型 GLIDE(Nichol、Dhariwal 和 Ramesh 等人,2022)探索了两种引导策略:CLIP 引导和无分类器引导,并发现后者更受欢迎。他们推测,这是因为 CLIP 引导利用对抗样本来改进 CLIP 模型,而不是优化生成更匹配的图像。

相关推荐
大龄程序员狗哥3 小时前
第47篇:使用Speech-to-Text API快速构建语音应用(操作教程)
人工智能
KKKlucifer3 小时前
数据安全合规自动化:策略落地、审计追溯与风险闭环技术解析
人工智能·安全
RWKV元始智能3 小时前
RWKV超并发项目教程,RWKV-LM训练提速40%
人工智能·rnn·深度学习·自然语言处理·开源
dyj0953 小时前
Dify - (一)、本地部署Dify+聊天助手/Agent
人工智能·docker·容器
IronMurphy3 小时前
【算法四十三】279. 完全平方数
算法
墨染天姬3 小时前
【AI】Hermes的GEPA算法
人工智能·算法
小超同学你好3 小时前
OpenClaw 深度解析系列 · 第8篇:Learning & Adaptation(学习与自适应)
人工智能·语言模型·chatgpt
紫微AI3 小时前
前端文本测量成了卡死一切创新的最后瓶颈,pretext实现突破了
前端·人工智能·typescript
papership4 小时前
【入门级-数据结构-3、特殊树:完全二叉树的数组表示法】
数据结构·算法·链表
码途漫谈4 小时前
Easy-Vibe开发篇阅读笔记(四)——前端开发之结合 Agent Skills 美化界面
人工智能·笔记·ai·开源·ai编程