2张图2秒钟3D重建!这款AI工具火爆GitHub,网友:忘掉Sora

无重叠场景都不影响

2024-03-04 15:32:55 来源:量子位

无重叠场景都不影响

丰色 发自 凹非寺

量子位 | 公众号 QbitAI

只需 2 张图片,无需测量任何额外数据------

当当,一个完整的 3D 小熊就有了:

这个名为 DUSt3R 的新工具,火得一塌糊涂,才上线没多久就登上 GitHub 热榜第二

网友实测 ,拍两张照片,真的就重建出了他家的厨房,整个过程耗时不到 2 秒钟

(除了 3D 图,深度图、置信度图和点云图它都能一并给出)

惊得这位朋友直呼:

大伙先忘掉 sora 吧,这才是我们真正看得见摸得着的东西。

实验显示,DUSt3R 在单目 / 多视图深度估计以及相对位姿估计三个任务上,均取得 SOTA。

作者团队(来自芬兰阿尔托大学 + NAVER LABS 人工智能研究所欧洲分所)的 "宣语" 也是气势满满:

我们就是要让天下没有难搞的 3D 视觉任务。

所以,它是如何做到?

"all-in-one"

对于多视图立体重建(MVS)任务来说,第一步就是估计相机参数,包括内外参。

这个操作很枯燥也很麻烦,但对于后续在三维空间中进行三角测量的像素不可或缺,而这又是几乎所有性能比较好的 MVS 算法都离不开的一环。

在本文研究中,作者团队引入的 DUSt3R 则完全采用了截然不同的方法。

不需要任何相机校准或视点姿势的先验信息,就可完成任意图像的密集或无约束 3D 重建。

在此,团队将成对重建问题表述为点图回归,统一单目和双目重建情况。

在提供超过两张输入图像的情况下,通过一种简单而有效的全局对准策略,将所有成对的点图表示为一个共同的参考框架。

如下图所示,给定一组具有未知相机姿态和内在特征的照片,DUSt3R 输出对应的一组点图,从中我们就可以直接恢复各种通常难以同时估计的几何量,如相机参数、像素对应关系、深度图,以及完全一致的 3D 重建效果。

(作者提示,DUSt3R 也适用于单张输入图像)

具体网络架构方面,DUSt3R 基于的是标准 Transformer 编码器和解码器,受到了 CroCo(通过跨视图完成 3D 视觉任务的自我监督预训练的一个研究)的启发,并采用简单的回归损失训练完成。

如下图所示,场景的两个视图(I1,I2)首先用共享的 ViT 编码器以连体(Siamese)方式进行编码。

所得到的 token 表示(F1 和 F2)随后被传递到两个 Transformer 解码器,后者通过交叉注意力不断地交换信息。

最后,两个回归头输出两个对应的点图和相关的置信图。

重点是,这两个点图都要在第一张图像的同一坐标系中进行表示。

多项任务获 SOTA

实验首先在 7Scenes(7 个室内场景)和 Cambridge Landmarks(8 个室外场景)数据集上评估 DUSt3R 在绝对姿态估计任务上性能,指标是平移误差和旋转误差(值越小越好)。

作者表示,与现有其他特征匹配和端到端方法相比,DUSt3R 表现算可圈可点了。

因为它一从未接受过任何视觉定位训练,二是在训练过程中,也没有遇到过查询图像和数据库图像。

其次,是在 10 个随机帧上进行的多视图姿态回归任务。结果 DUSt3R 在两个数据集上都取得了最佳效果。

而单目深度估计任务上,DUSt3R 也能很好地 hold 室内和室外场景,性能优于自监督基线,并与最先进的监督基线不相上下。

在多视图深度估计上,DUSt3R 的表现也可谓亮眼。

以下是两组官方给出的 3D 重建效果,再给大伙感受一下,都是仅输入两张图像:

(一)

(二)

网友实测:两张图无重叠也行

有网友给了 DUSt3R 两张没有任何重叠内容的图像,结果它也在几秒内输出了准确的 3D 视图:

(图片是他的办公室,所以肯定没在训练中见过)

对此,有网友表示,这意味着该方法不是在那进行 "客观测量",而是表现得更像一个 AI。

除此之外,还有人好奇当输入图像是两个不同的相机拍的时,方法是否仍然有效?

有网友还真试了,答案是 yes!

传送门:

1\] 论文 [arxiv.org/abs/2312.14...](https://link.juejin.cn?target=https%3A%2F%2Flink.zhihu.com%2F%3Ftarget%3Dhttps%253A%2F%2Farxiv.org%2Fabs%2F2312.14132 "https://link.zhihu.com/?target=https%3A//arxiv.org/abs/2312.14132") \[2\] 代码 [github.com/naver/dust3...](https://link.juejin.cn?target=https%3A%2F%2Flink.zhihu.com%2F%3Ftarget%3Dhttps%253A%2F%2Fgithub.com%2Fnaver%2Fdust3r "https://link.zhihu.com/?target=https%3A//github.com/naver/dust3r") 参考链接: \[1\][dust3r.europe.naverlabs.com/](https://link.juejin.cn?target=https%3A%2F%2Flink.zhihu.com%2F%3Ftarget%3Dhttps%253A%2F%2Fdust3r.europe.naverlabs.com%2F "https://link.zhihu.com/?target=https%3A//dust3r.europe.naverlabs.com/") \[2\][twitter.com/janusch_pat...](https://link.juejin.cn?target=https%3A%2F%2Flink.zhihu.com%2F%3Ftarget%3Dhttps%253A%2F%2Ftwitter.com%2Fjanusch_patas%2Fstatus%2F1764025964915302400 "https://link.zhihu.com/?target=https%3A//twitter.com/janusch_patas/status/1764025964915302400") *版权所有,未经授权不得以任何形式转载及使用,违者必究。*

相关推荐
子燕若水1 小时前
Unreal Engine 5中的AI知识
人工智能
极限实验室2 小时前
Coco AI 实战(一):Coco Server Linux 平台部署
人工智能
杨过过儿2 小时前
【学习笔记】4.1 什么是 LLM
人工智能
巴伦是只猫2 小时前
【机器学习笔记Ⅰ】13 正则化代价函数
人工智能·笔记·机器学习
大千AI助手3 小时前
DTW模版匹配:弹性对齐的时间序列相似度度量算法
人工智能·算法·机器学习·数据挖掘·模版匹配·dtw模版匹配
AI生存日记3 小时前
百度文心大模型 4.5 系列全面开源 英特尔同步支持端侧部署
人工智能·百度·开源·open ai大模型
LCG元3 小时前
自动驾驶感知模块的多模态数据融合:时序同步与空间对齐的框架解析
人工智能·机器学习·自动驾驶
why技术3 小时前
Stack Overflow,轰然倒下!
前端·人工智能·后端
墨风如雪4 小时前
苹果设备上的“大模型炼丹炉”:mlx-lm-lora,让你的 Mac 变身 AI 工作站!
aigc