在线教程丨获CVPR 2025最佳论文,通用3D视觉模型VGGT推理速度可达秒级

6 月 13 日,全球计算机视觉三大顶级会议之一 CVPR 2025 公布了最佳论文等奖项。根据官方数据,CVPR 2025 共收到了超 4 万名作者提交的 13,008 篇论文,相较去年的投稿数量增长了 13%,大会最终接收论文 2,872 篇,整体接受率约为 22.1%。

而在最终入选的近 3 千篇论文中,仅 1 篇杀出重围,摘冠 Best Paper,含金量可想而知。这篇成果是由牛津大学与 Meta AI 共同提出的基于纯前馈 Transformer 架构的通用 3D 视觉模型 VGGT,其突破了以往模型局限于单一任务的挑战,能够直接从一个、几个或数百个视角中推断出场景的所有关键三维属性,包括相机参数、点图(point maps)、深度图(depth maps)和三维点轨迹(3D point tracks)。

  • 论文题目:「VGGT: Visual Geometry Grounded Transformer」

  • 论文链接:go.hyper.ai/Nmgxd

更重要的是,该方法结构简单高效,能够在不到 1 秒的时间内完成图像重建,性能上超越了那些依赖视觉几何优化后处理技术的替代方案。实验结果显示,VGGT 在多个三维任务中的表现都达到了 SOTA 级别,包括相机参数估计、多视角深度估计、稠密点云重建和三维点追踪等。

目前,HyperAI超神经官网(hyper.ai)的教程版块已上线「VGGT:通用 3D 视觉模型」,支持一键部署体验效果,快来感受一下这项突破性成果的强大实力吧 ⬇️

Demo 运行

1.进入 hyper.ai 首页后,选择「教程」页面,并选择「VGGT:通用 3D 视觉模型」,点击「在线运行此教程」。

2.页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。

3.选择「NVIDIA RTX 4090」以及「PyTorch」镜像,OpenBayes 平台提供了 4 种计费方式,大家可以按照需求选择「按量付费」或「包日/周/月」,点击「继续执行」。新用户使用下方邀请链接注册,可获得 4 小时 RTX 4090 + 5 小时 CPU 的免费时长!

HyperAI超神经专属邀请链接(直接复制到浏览器打开):

openbayes.com/console/sig...

4.等待分配资源,首次克隆需等待 2 分钟左右的时间。当状态变为「运行中」后,点击「API 地址」旁边的跳转箭头,即可跳转至 Demo 页面。由于模型较大,需等待约 3 分钟显示 WebUI 界面,否则将显示「Bad Gateway」。请注意,用户需在实名认证后才能使用 API 地址访问功能。

效果演示

1.点击 API 地址即可进入 demo 页面体验该模型,如下图所示:

2.我们在教程中已经为大家准备了示例,点击即可直接体验模型效果,如下所示。

这就是本期推荐的教程,欢迎大家亲自上手体验 ⬇️

相关推荐
在猴站学算法2 小时前
机器学习(西瓜书) 第二章 模型评估与选择
人工智能·机器学习
科技宅说3 小时前
36氪专访丨乐橙CEO谢运:AI科技下的业务创新与长期主义下的品牌坚守
人工智能·科技
学术小八4 小时前
2025年人工智能、虚拟现实与交互设计国际学术会议
人工智能·交互·vr
仗剑_走天涯5 小时前
基于pytorch.nn模块实现线性模型
人工智能·pytorch·python·深度学习
cnbestec6 小时前
协作机器人UR7e与UR12e:轻量化设计与高负载能力助力“小而美”智造升级
人工智能·机器人·协作机器人·ur协作机器人·ur7e·ur12e
zskj_zhyl6 小时前
毫米波雷达守护银发安全:七彩喜跌倒检测仪重构居家养老防线
人工智能·安全·重构
gaosushexiangji7 小时前
利用sCMOS科学相机测量激光散射强度
大数据·人工智能·数码相机·计算机视觉
ai小鬼头8 小时前
AIStarter新版重磅来袭!永久订阅限时福利抢先看
人工智能·开源·github
说私域9 小时前
从品牌附庸到自我表达:定制开发开源AI智能名片S2B2C商城小程序赋能下的营销变革
人工智能·小程序
飞哥数智坊9 小时前
新版定价不够用,Cursor如何退回旧版定价
人工智能·cursor