该项目的论文被SIGGRAPH 2023 收录,论文以 StyleGAN2 架构为基础,实现了 "Drag" 关键点就能轻松 P 图的效果。
https://github.com/XingangPan/DragGAN
https://vcai.mpi-inf.mpg.de/projects/DragGAN/
目录
在官方 Demo 中,作者轻触鼠标,一拖一拽,让狗狗微笑、让猫咪"Wink"、让倒影拉长、让太阳升起...完美贴合现实世界的物理结构和物理逻辑。DragGAN 源代码正式放出,目前在 GitHub 上已有超过 20,000 颗星标。
根据论文中的介绍,DragGAN 是一种用于直观基于点的图像编辑的交互方法 。利用预先训练的 GAN 来合成不仅精确跟随用户输入的图像,而且停留在真实图像的流形上。与之前的许多方法相比,是一个不依赖于特定领域的建模或辅助网络的通用框架。
这是基于两种新方法实现的:一是对隐编码的优化,这些隐编码增量地将多个抓取点移动到它们的目标位置 ;二是通过点跟踪过程来准确地跟踪抓取点的轨迹。这两个组件利用 GAN 中间特征图的判别质量来进行图像变形,实现交互性能。目前已经证明,此方法在基于 GAN 的操作中优于最先进的方法,并为使用生成先验的强大图像编辑开辟了新的方向。而对于未来的工作,作者计划将基于点的编辑扩展到 3D 生成模型。

原图1

测试一


测试二



测试三

原图2

测试一

测试二

原图3

测试
参考文献
https://huggingface.co/spaces/DragGan/DragGan