DragDiffusion | 精准图像编辑

DragDiffusion: Harnessing Diffusion Models for Interactive Point-based Image Editing



Abstract

  • GAN泛化性能上界由其模型大小决定
  • 将基于点的图像编辑框架扩展到扩散模型
  • 目前,扩散模型图像编辑是通过文本嵌入实现,并非是精准的局部空间编辑
  • 虽然扩散模型是迭代式,但本模型通过只优化某一步的隐式变量即可实现高质量高效率的图像编辑

Contributions

  • 迭代的基于点的图像编辑框架应用到扩散模型中,从而实现精准空间编辑
  • DragGAN
  • Denoising diffusion probabilistic models (DDPM)
  • Denoising diffusion implicit models (DDIM)
  • DDIM inversion

Methodology

Overview

分为2步

  • (A)通过LoRA微调SD模型,数据集为用户输入的图像。
    • 目的是在编辑过程中(其实也是生成过程)更好的保留输入图像中物体和风格特征
  • (B)用户输入的图像作为Z0,通过DDIM Inversion得到第t步加噪声的隐变量Zt(注意,是小t,不是大T,也就是不是最终的标准高斯噪声,而是加噪的中间结果),在第t步通过Motion Supervision and Point Tracking------运动监督和轨迹跟踪 间接实现对图像点的拖拽得到Zt_hat, 在通过DDIM Denoising去噪生成编辑后的图像 (motion supervision 和 point tracking 是不断交替运行若干步的(论文中默认40步))
    • 在编辑过程中,需要增加正则项确保非编辑区域(编辑mask区域外)不变

Motion Supervision

  • the k-th iteration of motion supervision
  • 公式第一部分是对第t步的latent进行k次迭代实现点从起始位置运动到目标位置,注意是k次迭代,不是一步到位,采用的是梯度下降法(方向、步长),一次迭代只用一次梯度下降,不断迭代更新。
    • sg表示停止梯度stop gradient,即不会反向传播,因为最小化loss时候,采用bp,希望这一项不更新梯度
    • di是当前控制点朝着目标点的归一化方向
    • Fq+di是双线性插值得到的,不一定是整数
    • Ω(hk i , r1) = {(x, y) : |x - xk i | ≤ r1, |y - yik| ≤ r1} 是q的范围,矩形区域
  • 公式第二部分是对unmasked区域保持不变

Point Tracking

  • 因为运动监督更新了Ztk, 控制点的位置发生了变化,需要更新
  • 用Unet特征找控制点的匹配点,Unet倒数第二层的输出特征,即Unet.Decoder倒数第二个Stage的输出特征
  • 采用最近邻策略更新控制点

Experiments

Conclusions

  • 鸡肋,水文
  • DragDiffusion和DragGAN一样,都是通过对特征的点跟踪和运动特征监督进行
  • 注意,motion supervision 和 point tracking 是不断交替运行若干步的

References

相关推荐
d111111111d23 分钟前
STM32-UART封装问题解析
笔记·stm32·单片机·嵌入式硬件·学习·算法
Jiangxl~2 小时前
IP数据云如何为不同行业提供精准IP查询与风险防控解决方案?
网络·网络协议·tcp/ip·算法·ai·ip·安全架构
李伟_Li慢慢2 小时前
wolfram详解山峦算法
前端·算法
counting money3 小时前
prim算法最小生成树(java)
算法
澈2073 小时前
C++面向对象:类与对象核心解析
c++·算法
用户690673881923 小时前
基于无人机的单目测距系统,平均误差仅2.12%
算法
dinl_vin3 小时前
LangChain 系列·(四):RAG 基础——给大模型装上“外脑“
人工智能·算法·langchain
探物 AI3 小时前
【感知·医学分割】当 YOLOv11 杀入医学赛道:先检测后分割的级联架构
算法·yolo·计算机视觉·架构
隔壁大炮3 小时前
Day06-08.CNN概述介绍
人工智能·pytorch·深度学习·算法·计算机视觉·cnn·numpy
白云千载尽3 小时前
前馈与反馈——经典控制理论中的基础概念
人工智能·算法