MatSwap: Light-aware material transfers in images
介绍任务:输入 一张拍摄图像、示例材质纹理图像(这里跟BRDF无关,通常我们讲到材质一般指的是SVBRDF,但是这里的材质指的只是纹理)、用户为拍摄图像指定的遮罩区域(上图中的红色),输出 一张在遮罩区域替换为示例材质的图像结果。
【埋雷】这里需要留意论文中是否提到跟传统的扩散模型mask加生成有什么区别,例如:图像重绘。
当前任务面临的最大问题是在转移材质的过程中,做到材质、集合、光照的解耦。
从宏观上解决了什么问题?以往工作会用复杂文本提示词、大规模人工标注来进行生成,但是这些方法需要艺术家的专业知识,或3D场景的属性,获取难度比较大。这篇文章的方法只需要通过一个平面材质,就能免去uv映射,来得到可靠的结果。
怎么做的呢?
依赖于一个定制的light和几何感知的扩散模型。具体来说就是对预训练的文生图模型在合成数据集上进行材质迁移的微调。
上图展示了训练和推理的流程图。训练的时候先用blender生成合成数据,包括法线,irradiance等,然后将输入图像、法线、irradiance和mask分别用编码器或下采样压缩并concatenate为扩散模型的输入latent;此外,将条件图像p采用ip-adapter的形式注入扩散模型的交叉注意力模块中,最终迭代训练。而推理过程中则更简单,此时使用一个预训练的法线、irradiance估计网络Φ来根据input直接猜出法线和irradiance,然后联合其他输入注入到扩散模型中得到最终结果。
这个方法有点类似于Siggraph 2024文章RGB2X中的【X→RGB】部分。