HO-3D 数据集

// 由于非刚体的追踪比较困难,所以看看刚体数据集

bash 复制代码
HOnnotate: A method for 3D Annotation of Hand and Object Poses  // cvpr20

https://arxiv.org/abs/1907.01481       
https://github.com/shreyashampali/ho3d
https://paperswithcode.com/paper/ho-3d-a-multi-user-multi-object-dataset-for
https://paperswithcode.com/dataset/ho-3d

dataset

手与物体交互数据集,具有手部和物体的 3D 姿态注释。该数据集包含来自68个序列的66,034张训练图像和11,524张测试图像。这些序列是在多相机和单相机设置中捕获的,并包含 10 个不同的主题,操纵 YCB 数据集中的 10 个不同对象。使用优化算法自动获取注释。测试集的手部姿势注释被保留,测试集上算法的准确性可以使用标准指标使用 CodaLab 挑战提交(参见项目页面)进行评估。测试集和训练集的对象姿态注释与数据集一起提供。

abs

这篇文章介绍了一种名为HOnnotate的方法,用于标注手部和物体姿势的3D图像。该方法解决了在标注手部操纵物体的图像时所面临的相互遮挡的挑战。作者创建了一个名为HO-3D的数据集,这是第一个具有手部和物体3D标注的彩色图像的无标记数据集。通过HO-3D数据集,作者开发了一种基于单个RGB图像的方法,用于推广到训练中未见过的物体。该方法在处理手部和物体之间的相互遮挡方面取得了显著进展,为计算机视觉和姿势估计领域带来了重要意义。

早期的方法通常依赖于多视角摄像机设置和逐帧跟踪方法,可能需要仔细的初始化并且会随时间漂移。一些方法提出了生成方法来跟踪手部与物体的接触点,以进行手持RGB-D物体形状扫描。还有一些方法利用视觉传感器估计手部与物体相互作用期间的接触力,并进而估计手部和物体的姿势。此外,还有一些方法利用物理模拟器和3D渲染器进行帧间跟踪,或者使用协作跟踪器进行多物体和多手部跟踪。这些方法在处理手部和物体姿势估计方面取得了定性较高的准确性,但由于真实世界中的地面真实获取很困难,因此它们通常在合成数据集上评估。

method

HOnnotate方法,用于手部和物体的3D姿势标注。该方法通过在RGB图像上标注手部和物体的关键点来创建HO-3D数据集,其中包含了手部和物体的3D姿势标注。作者介绍了他们的标注方法,并说明了如何利用这些标注数据来训练用于手部姿势估计的深度学习模型。通过HO-3D数据集和HOnnotate方法,作者展示了他们的方法在处理手部和物体姿势估计问题上的有效性和重要性。

benchmark

  • average hand-joint errors (in cm)
  • average mesh error in cm
相关推荐
sin°θ_陈3 小时前
前馈式3D Gaussian Splatting 研究地图(路线四):无位姿、无标定、弱约束:前馈式 3DGS 的真实世界转向
3d
kyle~7 小时前
Open3D---FPFH 3D点云的快速点特征直方图描述符
3d·机器人·点云处理
Zldaisy3d8 小时前
哈佛大学发布“七十二变”软体机器手,提出旋转多材料3D打印新方法
3d
动恰客流管家1 天前
动恰3DV3丨客流统计系统:自然山水景区客流统计破局,景区数字化标配
数据结构·microsoft·3d
CG_MAGIC1 天前
Blender场景教程:秘密实验室
3d·blender·建模教程·渲云渲染·3d软件
UltraLAB-F1 天前
医学图像处理算力瓶颈深度解析:从3D CT到高分辨率MRI,UltraLAB硬件方案如何破局?
图像处理·人工智能·3d
北城笑笑2 天前
Frontend 与 FPGA 深度融合实战解析:从技术协同到多场景落地( 前端和现场可编程门阵列 )
前端·websocket·3d·vue·fpga
Yao.Li3 天前
PVN3D 原生 / ONNX 混合 / TRT 混合推理速度测试
人工智能·3d·具身智能
threelab3 天前
引擎案例分析 02|GeoLayer 大厂地理可视化方案深度拆解
javascript·3d·webgl
Yao.Li3 天前
PVN3D TensorRT Engine 转换与测试记录
3d·具身智能