【EGSR2025】材质+扩散模型+神经网络相关论文整理随笔

MatSwap: Light-aware material transfers in images

介绍任务:输入 一张拍摄图像、示例材质纹理图像(这里跟BRDF无关,通常我们讲到材质一般指的是SVBRDF,但是这里的材质指的只是纹理)、用户为拍摄图像指定的遮罩区域(上图中的红色),输出 一张在遮罩区域替换为示例材质的图像结果。

【埋雷】这里需要留意论文中是否提到跟传统的扩散模型mask加生成有什么区别,例如:图像重绘。

当前任务面临的最大问题是在转移材质的过程中,做到材质、集合、光照的解耦。

从宏观上解决了什么问题?以往工作会用复杂文本提示词、大规模人工标注来进行生成,但是这些方法需要艺术家的专业知识,或3D场景的属性,获取难度比较大。这篇文章的方法只需要通过一个平面材质,就能免去uv映射,来得到可靠的结果。

怎么做的呢?

依赖于一个定制的light和几何感知的扩散模型。具体来说就是对预训练的文生图模型在合成数据集上进行材质迁移的微调。

上图展示了训练和推理的流程图。训练的时候先用blender生成合成数据,包括法线,irradiance等,然后将输入图像、法线、irradiance和mask分别用编码器或下采样压缩并concatenate为扩散模型的输入latent;此外,将条件图像p采用ip-adapter的形式注入扩散模型的交叉注意力模块中,最终迭代训练。而推理过程中则更简单,此时使用一个预训练的法线、irradiance估计网络Φ来根据input直接猜出法线和irradiance,然后联合其他输入注入到扩散模型中得到最终结果。

这个方法有点类似于Siggraph 2024文章RGB2X中的【X→RGB】部分。

相关推荐
风象南7 小时前
我把大脑开源给了AI
人工智能·后端
Johny_Zhao9 小时前
OpenClaw安装部署教程
linux·人工智能·ai·云计算·系统运维·openclaw
飞哥数智坊10 小时前
我帮你读《一人公司(OPC)发展研究》
人工智能
冬奇Lab13 小时前
OpenClaw 源码精读(3):Agent 执行引擎——AI 如何「思考」并与真实世界交互?
人工智能·aigc
没事勤琢磨15 小时前
如何让 OpenClaw 控制使用浏览器:让 AI 像真人一样操控你的浏览器
人工智能
用户51914958484515 小时前
CrushFTP 认证绕过漏洞利用工具 (CVE-2024-4040)
人工智能·aigc
牛马摆渡人52815 小时前
OpenClaw实战--Day1: 本地化
人工智能
前端小豆15 小时前
玩转 OpenClaw:打造你的私有 AI 助手网关
人工智能
BugShare16 小时前
写一个你自己的Agent Skills
人工智能·程序员
机器之心16 小时前
英伟达护城河被AI攻破,字节清华CUDA Agent,让人人能搓CUDA内核
人工智能·openai