今日arXiv最热大模型论文:复旦提出基于diffusion的虚拟试衣模型,模特一键换装

仅需上传模特图像,便可一键换装,极大提高了用户网购衣服的效率。

虚拟试衣(Virtual Try-On)作为图像生成中一个商业价值高、可以直接变现的子任务,研究热度随着图像生成技术的发展水涨船高。

但现有的一些方法生成的效果还差点意思,如下图所示:

基于GAN的方法换装后与模特不贴合,像是简单粗暴P上去的一样。扩散模型的出现使其可以生成逼真的试穿图像,但它们往往在细节上还原度不高,比如衣服的色彩版型与原始平装衣物不一致。

GPT-3.5研究测试:
https://hujiaoai.cn

GPT-4研究测试:
https://higpt4.cn

Claude-3研究测试(全面吊打GPT-4):
https://hiclaude3.com

复旦团队认为扩散模型的随机性和潜在监督不足是导致问题的关键因素。为了缓解这些问题,作者为虚拟试衣(VTON)任务提出了一种新颖的忠实潜扩散模型------FLDM-VTON。

该方法在传统的潜在扩散过程的训练中从两个主要方面进行了改进:(i) 通过利用变形后的衣物作为起点和局部条件,提供忠实的衣物先验,以减轻初始和过程中的随机性,(ii)通过一个新颖的衣物平坦化网络,从原始平装衣物引入额外的图像级约束。结果显示,FLDM-VTON在性能上超越了最先进的基线,能够生成具有真实照片级逼真度和忠实衣物细节的试穿图像。

论文标题 :

FLDM-VTON: Faithful Latent Diffusion Model for Virtual Try-on

论文链接

https://arxiv.org/pdf/2404.14162.

方法概览

带有衣服先验的扩散模型

给定一个人像图像 和一个表示试穿区域的掩码 ,可以通过逐元素乘法得到一个无衣物的人像 ,表示试穿区域被遮罩的人像。虚拟试穿(VTON)的目标是将一件平铺的衣物 转移到 上,生成逼真的试穿图像,并保持衣物的细节。

以往的方法采用LDM 通过预训练的编码器 和解码器,在潜空间中训练一个扩散模型,包括前向和反向过程。在前向过程中,会在任意时间步向结果的潜在特征 中添加高斯噪声ϵ,其中 是真实试穿图像。在反向过程中,使用扩散 U-Net 估计添加的噪声 ϵ。

传统的方法能产生逼真的效果,但在衣服细节的处理上还不够完善。因此本文以 或变形衣物特征 作为起点,其中变形衣物特征在开始时提供了衣物先验。将 称为主起点,称为先验 起点。此外,利用预变形的试穿图像特征 作为所有时间步的先验局部条件,其中 。

前向过程

在主起点 和先验起点 z_0^p 的潜在特征上逐渐添加高斯噪声 ϵ,在任意时间步t$,得到对应的 t-阶潜在特征。如下公式所示:

反向过程

将缩小的掩码 作为去噪条件,预扭曲的试穿图像特征 作为局部先验条件。我们将第个潜在特征、局部先验条件和去噪条件沿通道维度连接,作为扩散 UNet 的输入

对于一对图像,可以得到两个不同的输入:主噪声输入 ψ 和先验噪声输入ψ。这些输入分别通过相同的试穿扩散 UNet U 进行处理,以预测主初始潜在特征 。还会通过 DINO-V2 (一个当前强大的无监督视觉编码器 V)对平铺的衣服进行编码,作为全局控制器,通过跨注意力注入到每个 UNet层中。因此,单个样本和时间步的扩散训练损失函数定义为:

衣物一致的忠实监督

在真实试衣时,当用户脱下并展开试穿的衣服时,它应与平铺的衣物完全相同。为此,作者设计了一个衣物展开网络 ,它可以从生成的试穿图像中移除衣物并使其像原始平铺衣物一样展开,可进一步提高衣服细节度。

该网络包含两个步骤:脱下与展开。脱下通过使用预分割的衣物掩码 对生成的试穿图像进行遮罩来完成。

展开步骤是一个反向映射过程,训练一个展开模块来预测展开流。展开网络采用 U 型结构,利用特征金字塔网络(FPN)在多尺度上编码衣物分割特征,然后使用级联的流估计块,根据缩小的平铺衣物位置掩码预测展开流,如下图所示。使用混合损失函数训练衣物展开网络,包括图像级别的 损失和感知损失 ,以及流级别的二阶平滑损失 和梯度总和损失 ,定义为

整体架构

整体FLDM-VTON的整体架构如下图所示。

训练阶段

处理每个样本时,首先通过将t-th潜在特征与先验局部和去噪条件拼接,得到主要输入ψ和先验输入ψ。然后,试穿扩散UNet U 在全局控制器DINO-V2 V 的指导下,分别处理这两种类型的输入,利用扩散损失估计试穿的潜在特征。此外,FLDM-VTON还包含一个衣物平整网络,通过衣物一致损失提供衣物一致的忠实监督。试穿扩散UNet的总体训练损失定义如下:

推理阶段

在引入衣物先验进行模型训练后,FLDM-VTON可以从一个特定条件于变形衣物特征的后 验高斯噪声开始推理。 具体来说, 衣物后验噪声是第T步先验潜在特征:

通过这种方式,采样过程的初始随机性显著降低,确保生成的衣物细节的还原度。

实验

定量比较

下面两个表分别展示了在两个基准上的效果,显示了在配对和无配对设置下,FLDM-VTON在各种性能指标上优于大多数基线。

定性比较

作者还导出了不同模型换装后的效果,从多个例子中可以看出FLDM-VTON在生成逼真的试穿图像的同时,能还原衣服的细节。

作者还将该模型应用于来自亚马逊网站的现实世界数据,FLDM-VTON具有很强的稳健性

作者进一步通过简单地遮盖与源衣物和目标衣物相关的区域,对FLDM-VTON进行了更具挑战性的试穿情况测试。如下图所示,FLDM-VTON同样展现出强大效果。

消融实验

作者以传统的无条件修复的LDM作为初始基线,如下表所示。

首先,通过添加预设的局部条件 进行增强。由于扭曲衣服提供的先验信息,生成的试穿图像能捕捉到大部分粗粒度的服装细节。然而,复杂图案的风格却显著失真。

其次,通过整合CLIP或DINO V2的全局条件,这些复杂图案的风格有了显著提升。值得注意的是,DINO V2优于CLIP,这归功于其更具区分性的全局特征提取能力。

然后以带有预设局部条件和DINO V2全局条件的修复LDM作为初始基线。首先,通过加入对预设去噪输入的额外训练这个过程,复杂图案的风格得到了很大程度 的保留。如下图所示:

作者还探索了服装一致性监督的效果,包括真实的服装分割图像 ,估计的平铺服装图像 以及真实的平铺服装图像。效果如下图:

结果显示,服装平铺网络有效地将试穿状态的服装转换为平铺状态。通过比较估计的和原始平铺服装,原始平铺服装具有更多的精细服装细节,这表明将服装平铺网络引入训练中,保留更真实服装细节。

结论

本文通过引入忠实的服装先验和服装一致的忠实监督,有效地缓解了因扩散随机性和隐式监督导致的服装细节不足的问题。采用这一方法后,生成的试穿图像更加逼真,衣物细节得到了更好的还原,为用户提供了更加真实、细致的虚拟试穿体验。

相关推荐
galileo201615 分钟前
LLM与金融
人工智能
DREAM依旧31 分钟前
隐马尔科夫模型|前向算法|Viterbi 算法
人工智能
GocNeverGiveUp44 分钟前
机器学习2-NumPy
人工智能·机器学习·numpy
B站计算机毕业设计超人2 小时前
计算机毕业设计PySpark+Hadoop中国城市交通分析与预测 Python交通预测 Python交通可视化 客流量预测 交通大数据 机器学习 深度学习
大数据·人工智能·爬虫·python·机器学习·课程设计·数据可视化
学术头条2 小时前
清华、智谱团队:探索 RLHF 的 scaling laws
人工智能·深度学习·算法·机器学习·语言模型·计算语言学
18号房客2 小时前
一个简单的机器学习实战例程,使用Scikit-Learn库来完成一个常见的分类任务——**鸢尾花数据集(Iris Dataset)**的分类
人工智能·深度学习·神经网络·机器学习·语言模型·自然语言处理·sklearn
feifeikon2 小时前
机器学习DAY3 : 线性回归与最小二乘法与sklearn实现 (线性回归完)
人工智能·机器学习·线性回归
游客5202 小时前
opencv中的常用的100个API
图像处理·人工智能·python·opencv·计算机视觉
古希腊掌管学习的神2 小时前
[机器学习]sklearn入门指南(2)
人工智能·机器学习·sklearn
凡人的AI工具箱2 小时前
每天40分玩转Django:Django国际化
数据库·人工智能·后端·python·django·sqlite