HO-3D 数据集

// 由于非刚体的追踪比较困难,所以看看刚体数据集

bash 复制代码
HOnnotate: A method for 3D Annotation of Hand and Object Poses  // cvpr20

https://arxiv.org/abs/1907.01481       
https://github.com/shreyashampali/ho3d
https://paperswithcode.com/paper/ho-3d-a-multi-user-multi-object-dataset-for
https://paperswithcode.com/dataset/ho-3d

dataset

手与物体交互数据集,具有手部和物体的 3D 姿态注释。该数据集包含来自68个序列的66,034张训练图像和11,524张测试图像。这些序列是在多相机和单相机设置中捕获的,并包含 10 个不同的主题,操纵 YCB 数据集中的 10 个不同对象。使用优化算法自动获取注释。测试集的手部姿势注释被保留,测试集上算法的准确性可以使用标准指标使用 CodaLab 挑战提交(参见项目页面)进行评估。测试集和训练集的对象姿态注释与数据集一起提供。

abs

这篇文章介绍了一种名为HOnnotate的方法,用于标注手部和物体姿势的3D图像。该方法解决了在标注手部操纵物体的图像时所面临的相互遮挡的挑战。作者创建了一个名为HO-3D的数据集,这是第一个具有手部和物体3D标注的彩色图像的无标记数据集。通过HO-3D数据集,作者开发了一种基于单个RGB图像的方法,用于推广到训练中未见过的物体。该方法在处理手部和物体之间的相互遮挡方面取得了显著进展,为计算机视觉和姿势估计领域带来了重要意义。

早期的方法通常依赖于多视角摄像机设置和逐帧跟踪方法,可能需要仔细的初始化并且会随时间漂移。一些方法提出了生成方法来跟踪手部与物体的接触点,以进行手持RGB-D物体形状扫描。还有一些方法利用视觉传感器估计手部与物体相互作用期间的接触力,并进而估计手部和物体的姿势。此外,还有一些方法利用物理模拟器和3D渲染器进行帧间跟踪,或者使用协作跟踪器进行多物体和多手部跟踪。这些方法在处理手部和物体姿势估计方面取得了定性较高的准确性,但由于真实世界中的地面真实获取很困难,因此它们通常在合成数据集上评估。

method

HOnnotate方法,用于手部和物体的3D姿势标注。该方法通过在RGB图像上标注手部和物体的关键点来创建HO-3D数据集,其中包含了手部和物体的3D姿势标注。作者介绍了他们的标注方法,并说明了如何利用这些标注数据来训练用于手部姿势估计的深度学习模型。通过HO-3D数据集和HOnnotate方法,作者展示了他们的方法在处理手部和物体姿势估计问题上的有效性和重要性。

benchmark

  • average hand-joint errors (in cm)
  • average mesh error in cm
相关推荐
zl_vslam1 小时前
SLAM中的非线性优-3D图优化之地平面约束(十五)
人工智能·算法·计算机视觉·3d
STCNXPARM1 小时前
Android14显示系统 - 开源图形库Mesa3d
3d·开源·mesa3d·android图形库·opengl-es
杀生丸学AI1 小时前
【平面重建】3D高斯平面:混合2D/3D光场重建(NeurIPS2025)
人工智能·平面·3d·大模型·aigc·高斯泼溅·空间智能
threelab3 小时前
Merge3D 三维引擎中 GeoJSON 数据加载的整体设计
android·3d
徐114 小时前
无图纸定制修复汽车外饰?3DeVOK MT+QUICKSURFACE逆向设计解决方案
3d·汽车·机器翻译
3DVisionary7 小时前
全尺寸检测+色谱图分析:蓝光3D扫描赋能路由器注塑品质管控
3d·智能路由器·质量控制·注塑检测·蓝光3d扫描·全尺寸检测·新拓三维
DisonTangor1 天前
UltraShape 1.0: 高保真三维形状生成:基于可扩展几何优化
人工智能·3d·开源·aigc
3DVisionary1 天前
3C电子制造质检升级:拍照式蓝光3D扫描在精密测量中的应用实践
3d·制造
gis_rc1 天前
python下shp转3dtiles
python·3d·cesium·3dtiles·数字孪生模型
晟诺数字人1 天前
数字人、AI数字人、虚拟数字人、3D数字人之间的区别于应用场景
大数据·人工智能·3d·数字人