浅析扩散模型与图像生成【应用篇】(十三)——PITI

13. Pretraining is All You Need for Image-to-Image Translation

该文提出一种基于预训练扩散模型的图像转换方法,称为PITI。其思想并不复杂,就是借鉴现有视觉和NLP领域中常见的预训练方法,考虑预先在一个大规模的任务无关数据集上对扩散模型进行预训练,使其具备一个高度语义化的空间。然后,再针对特定任务对模型进行微调训练,此时微调过程只需要关注与任务相关的输入信息,而困难的图像生成工作,比如渲染一个合理布局和真实的纹理,将根据预训练时得到的知识来完成。

在本文中,作者采用GLIDE模型作为基础模型,在一个包含67M个文本-图像对的数据集上进行预训练。使用基础模型进行图像生成的过程,可以看作是对原始输入 x 0 \boldsymbol{x}{0} x0和条件 y \boldsymbol{y} y进行编码和解码的过程 x t = D ~ ( E ~ ( x 0 , y ) ) \boldsymbol{x}{t}=\tilde{\mathcal{D}}\left(\tilde{\mathcal{E}}\left(\boldsymbol{x}_{0}, \boldsymbol{y}\right)\right) xt=D~(E~(x0,y))其中 D ~ \tilde{\mathcal{D}} D~和 E ~ \tilde{\mathcal{E}} E~分别表示解码和编码器。微调训练包含两个阶段,第一阶段时锁定解码器的参数,只对编码器进行训练;第二阶段是对两者进行联合训练。

由于扩散模型生成的结果通常分辨率较低,如64*64,因此作者也采用了一个基于扩散模型的上采样器,对生成结果进行分辨率提升。然而,作者发现提升的结果存在过度平滑的问题,因此作者又引入了GAN中常见的感知损失和对抗损失,如下式 L perc = E t , x 0 , ϵ ∥ ψ m ( x ^ 0 t ) − ψ m ( x 0 ) ∥ , L a d v = E t , x 0 , ϵ [ log ⁡ D θ ( x ^ 0 t ) ] + E x 0 [ log ⁡ ( 1 − D θ ( x 0 ) ) ] \begin{aligned} \mathcal{L}{\text {perc }} & =\mathbb{E}{t, \boldsymbol{x}{0}, \boldsymbol{\epsilon}}\left\|\boldsymbol{\psi}{m}\left(\hat{\boldsymbol{x}}{0}^{t}\right)-\boldsymbol{\psi}{m}\left(\boldsymbol{x}{0}\right)\right\|, \\ \mathcal{L}{\mathrm{adv}} & =\mathbb{E}{t, \boldsymbol{x}{0}, \boldsymbol{\epsilon}}\left[\log D_{\theta}\left(\hat{\boldsymbol{x}}{0}^{t}\right)\right]+\mathbb{E}{\boldsymbol{x}{0}}\left[\log \left(1-D{\theta}\left(\boldsymbol{x}{0}\right)\right)\right] \end{aligned} Lperc Ladv=Et,x0,ϵ ψm(x^0t)−ψm(x0) ,=Et,x0,ϵ[logDθ(x^0t)]+Ex0[log(1−Dθ(x0))]其中 x ^ 0 t = ( x t − 1 − α t ϵ θ ( x t , y , t ) ) / α t \hat{\boldsymbol{x}}{0}^{t}=\left(\boldsymbol{x}{t}-\sqrt{1-\alpha{t}} \boldsymbol{\epsilon}{\theta}\left(\boldsymbol{x}{t}, \boldsymbol{y}, t\right)\right) / \sqrt{\alpha_{t}} x^0t=(xt−1−αt ϵθ(xt,y,t))/αt 表示预测得到的生成结果。

最后,作者发现在常规的无分类器引导的扩散模型CDM中 ϵ ^ θ ( x t ∣ y ) = ϵ θ ( x t ∣ y ) + w ⋅ ( ϵ θ ( x t ∣ y ) − ϵ θ ( x t ∣ ∅ ) ) \hat{\boldsymbol{\epsilon}}{\theta}\left(\boldsymbol{x}{t} \mid \boldsymbol{y}\right)=\boldsymbol{\epsilon}{\theta}\left(\boldsymbol{x}{t} \mid \boldsymbol{y}\right)+w \cdot\left(\boldsymbol{\epsilon}{\theta}\left(\boldsymbol{x}{t} \mid \boldsymbol{y}\right)-\boldsymbol{\epsilon}{\theta}\left(\boldsymbol{x}{t} \mid \emptyset\right)\right) ϵ^θ(xt∣y)=ϵθ(xt∣y)+w⋅(ϵθ(xt∣y)−ϵθ(xt∣∅))条件的引入会导致估计噪声的均值和方差发生漂移,如下 μ ^ = μ + w ( μ − μ ∅ ) \hat{\mu}=\mu+w\left(\mu-\mu_{\emptyset}\right) μ^=μ+w(μ−μ∅) σ ^ 2 = ( 1 + w ) 2 σ 2 + w 2 σ ∅ 2 \hat{\sigma}^{2}=(1+w)^{2} \sigma^{2}+w^{2} \sigma_{\emptyset}^{2} σ^2=(1+w)2σ2+w2σ∅2并且这个偏移会随着迭代去噪过程逐渐累积,最终导致生成图像过饱和或者过度平滑。为此,作者提出一种规则化处理方式,如下式 ϵ ~ θ ( x t ∣ y ) = σ σ ^ ( ϵ ^ θ ( x t ∣ y ) − μ ^ ) + μ \tilde{\boldsymbol{\epsilon}}{\theta}\left(\boldsymbol{x}{t} \mid \boldsymbol{y}\right)=\frac{\sigma}{\hat{\sigma}}\left(\hat{\boldsymbol{\epsilon}}{\theta}\left(\boldsymbol{x}{t} \mid \boldsymbol{y}\right)-\hat{\mu}\right)+\mu ϵ~θ(xt∣y)=σ^σ(ϵ^θ(xt∣y)−μ^)+μ

作者在"掩码到图像"、"轮廓到图像"和"几何体到图像"等图像转换任务中,对本文提出的方法进行了测试,其效果如下

相关推荐
m0_650108241 天前
【论文精读】Snap Video:面向文本到视频生成的规模化时空 Transformer
aigc·扩散模型·论文精读·时空transformer·文本到视频生成·视频生成效率优化
Vizio<1 天前
《基于电阻层析成像(ERT)的机器人皮肤空间灵敏度均衡:通过应变系数分布优化》ICRA 2025 论文解读
论文阅读·机器人·机器人触觉
三木今天学习了嘛2 天前
【VLA & Markov】VLA 架构和构建模块 与 Markov 带来的时序思考
论文阅读
依夏c2 天前
[论文笔记•(多智能体)]LLMs Can Simulate Standardized Patients via Agent Coevolution
论文阅读·论文笔记
wzx_Eleven2 天前
【论文阅读】AAAI 2025 | 面向精确分割式联邦学习的多模型聚合与知识重放
论文阅读·人工智能·机器学习
Zack_Liu2 天前
LSS论文阅读
论文阅读·人工智能·目标跟踪
何如千泷2 天前
【论文阅读】SelfReg-UNet: Self-Regularized UNet for Medical Image Segmentation
论文阅读
张较瘦_2 天前
[论文阅读] AI + Debug | 基于大语言模型的GitHub故障复现测试用例生成方法解析
论文阅读·人工智能·语言模型
Small___ming2 天前
【论文笔记】扩散模型——如何通俗理解传统概率模型的核心矛盾
论文阅读·人工智能·扩散模型·生成式人工智能
张较瘦_2 天前
[论文阅读] AI + 软件工程 | 从“能用”到“耐用”:LLM生成软件的老化陷阱与研究突破
论文阅读·人工智能·软件工程