Imagic: Text-Based Real Image Editing with Diffusion Models

  1. 问题引入
  • 针对的是text based image editing问题,可以解决non rigid edit,即可以改变图片中object的posture;
  • 模型仅需要原图以及编辑的text,不需要mask,也是在T2I diffusion model上实现的;
  • 首先optimize text embedding,之后使用优化后的text embedding来微调整个模型,最后将优化之后的text embedding和目标text的embedding进行插值得到一个结合原图以及编辑prompt的embedding,然后进行生成得到想要的结果;
  1. methods
  • Text embedding optimization:首先获取到编辑后text的embedding e t g t e_{tgt} etgt,之后只是训练embedding部分,冻结diffusion model主体,训练很少的步数,以使得优化之后的embedding e o p t e_{opt} eopt没有发生很大的变化,便于第三步的插值操作;
  • Model fine-tuning:因为第一步只训练了很少的步数,所以生成的图片不能和原图完全一致,所以进行了全模型的训练(优化之后的embedding冻结),此时使用的是 e o p t e_{opt} eopt,但是在finetune后接的超分模型的时候使用的是 e t g t e_{tgt} etgt;
  • Text embedding interpolation:进行 e t g t , e o p t e_{tgt},e_{opt} etgt,eopt之间的插值: e ‾ = η ⋅ e t g t + ( 1 − η ) ⋅ e o p t \overline{e} = \eta\cdot e_{tgt} + (1 - \eta)\cdot e_{opt} e=η⋅etgt+(1−η)⋅eopt,以这个作为最后的embedding来生成,后接的超分模型还是使用 e t g t e_{tgt} etgt
相关推荐
弓.长.6 分钟前
Transformer位置编码演进:从绝对位置到RoPE的数学本质
人工智能·深度学习·transformer
诸葛务农8 分钟前
神经网络信息编码技术:与人脑信息处理的差距及超越的替在优势和可能(上)
人工智能·深度学习·神经网络
oscar99910 分钟前
神经网络前向传播:AI的“消化系统”全解析
人工智能·深度学习·神经网络
J_Xiong011719 分钟前
【VLMs篇】10:使用Transformer的端到端目标检测(DETR)
深度学习·目标检测·transformer
有Li19 分钟前
泛用型nnUNet脑血管周围间隙识别系统(PINGU)|文献速递-医疗影像分割与目标检测最新技术
论文阅读·深度学习·文献·医学生
Shiyuan724 分钟前
【IEEE冠名EI会议】2026年IEEE第三届深度学习与计算机视觉国际会议
人工智能·深度学习·计算机视觉
q_302381955626 分钟前
YOLOv11训练NEU-DET钢材缺陷数据集并部署香橙派推理全流程
人工智能·python·深度学习·课程设计
java1234_小锋31 分钟前
Transformer 大语言模型(LLM)基石 - Transformer PyTorch2内置实现
深度学习·语言模型·transformer
Mr_Xuhhh36 分钟前
有关LangChain
人工智能·深度学习·神经网络
jay神41 分钟前
神经网络的调参顺序
人工智能·深度学习·神经网络·科研·模型调参