HO-3D 数据集

// 由于非刚体的追踪比较困难,所以看看刚体数据集

bash 复制代码
HOnnotate: A method for 3D Annotation of Hand and Object Poses  // cvpr20

https://arxiv.org/abs/1907.01481       
https://github.com/shreyashampali/ho3d
https://paperswithcode.com/paper/ho-3d-a-multi-user-multi-object-dataset-for
https://paperswithcode.com/dataset/ho-3d

dataset

手与物体交互数据集,具有手部和物体的 3D 姿态注释。该数据集包含来自68个序列的66,034张训练图像和11,524张测试图像。这些序列是在多相机和单相机设置中捕获的,并包含 10 个不同的主题,操纵 YCB 数据集中的 10 个不同对象。使用优化算法自动获取注释。测试集的手部姿势注释被保留,测试集上算法的准确性可以使用标准指标使用 CodaLab 挑战提交(参见项目页面)进行评估。测试集和训练集的对象姿态注释与数据集一起提供。

abs

这篇文章介绍了一种名为HOnnotate的方法,用于标注手部和物体姿势的3D图像。该方法解决了在标注手部操纵物体的图像时所面临的相互遮挡的挑战。作者创建了一个名为HO-3D的数据集,这是第一个具有手部和物体3D标注的彩色图像的无标记数据集。通过HO-3D数据集,作者开发了一种基于单个RGB图像的方法,用于推广到训练中未见过的物体。该方法在处理手部和物体之间的相互遮挡方面取得了显著进展,为计算机视觉和姿势估计领域带来了重要意义。

早期的方法通常依赖于多视角摄像机设置和逐帧跟踪方法,可能需要仔细的初始化并且会随时间漂移。一些方法提出了生成方法来跟踪手部与物体的接触点,以进行手持RGB-D物体形状扫描。还有一些方法利用视觉传感器估计手部与物体相互作用期间的接触力,并进而估计手部和物体的姿势。此外,还有一些方法利用物理模拟器和3D渲染器进行帧间跟踪,或者使用协作跟踪器进行多物体和多手部跟踪。这些方法在处理手部和物体姿势估计方面取得了定性较高的准确性,但由于真实世界中的地面真实获取很困难,因此它们通常在合成数据集上评估。

method

HOnnotate方法,用于手部和物体的3D姿势标注。该方法通过在RGB图像上标注手部和物体的关键点来创建HO-3D数据集,其中包含了手部和物体的3D姿势标注。作者介绍了他们的标注方法,并说明了如何利用这些标注数据来训练用于手部姿势估计的深度学习模型。通过HO-3D数据集和HOnnotate方法,作者展示了他们的方法在处理手部和物体姿势估计问题上的有效性和重要性。

benchmark

  • average hand-joint errors (in cm)
  • average mesh error in cm
相关推荐
audyxiao00116 分钟前
为了更强大的空间智能,如何将2D图像转换成完整、具有真实尺度和外观的3D场景?
人工智能·计算机视觉·3d·iccv·空间智能
范男3 小时前
基于Pytochvideo训练自己的的视频分类模型
人工智能·pytorch·python·深度学习·计算机视觉·3d·视频
点云SLAM7 小时前
SLAM文献之-Globally Consistent and Tightly Coupled 3D LiDAR Inertial Mapping
3d·机器人·slam·vgicp算法·gpu 加速·lidar-imu 建图方法·全局匹配代价最小化
LetsonH10 小时前
⭐CVPR2025 给3D高斯穿 “UV 衣” 框架[特殊字符]
3d·uv
新启航-光学3D测量21 小时前
从 48 小时到 4 小时:三维逆向工程中自动化工具链如何重构扫描建模效率
科技·3d·制造
彩旗工作室1 天前
腾讯混元3D系列开源模型:从工业级到移动端的本地部署
3d·开源·腾讯混元
CG_MAGIC1 天前
主流 3D 模型格式(FBX/OBJ/DAE/GLTF)材质支持与转换操作指南
3d·渲染·动画·材质·贴图·3d 模型格式·材质支持与转换操作指南
计算机科研圈1 天前
ICCV 2025 | 首个3D动作游戏专用VLA模型,打黑神话&只狼超越人类玩家
图像处理·人工智能·3d·黑神话
LetsonH2 天前
⭐CVPR2025 RigGS:从 2D 视频到可编辑 3D 关节物体的建模新范式
3d
郝学胜-神的一滴2 天前
Three.js 材质系统深度解析
javascript·3d·游戏引擎·webgl·材质