1、FAR: Flexible, Accurate and Robust 6DoF Relative Camera Pose Estimation
中文标题:FAR:灵活、准确和稳健的6DoF相机相对姿态估计
简介:在计算机视觉领域,估计图像之间的相对相机姿态一直是一个关键问题。通常,通过找到对应点并解决基础矩阵,可以获得高精度的解决方案。然而,直接使用神经网络预测姿态的方法在处理重叠区域有限的图像时更为鲁棒,并且可以推断出绝对平移尺度,尽管牺牲了一定的精度。我们提出了一种方法,结合了这两种方法的优点:精确、鲁棒,并能准确推断出平移尺度。我们的模型以Transformer为核心,旨在(1)学习解决方案与学习的姿态估计之间的关系,以及(2)提供一个先验来指导求解器。经过全面分析,我们的设计选择得到了支持,并且证明我们的方法能够灵活适应不同特征提取器和对应估计器,在Matterport3D、InteriorNet、StreetLearn和Map-free Relocalization等数据集上展现出最先进的6DoF姿态估计性能。
2、Simplicity in Complexity
中文标题:复杂中的简单
简介:在许多认知现象中,视觉刺激的复杂性扮演着重要角色,包括注意力、参与度、可记忆性、时间感知和审美评价。尽管复杂性至关重要,但人们对其仍知之甚少。有趣的是,过去的图像复杂性模型本身相当复杂。以前的研究试图寻找手动制定的特征来解释复杂性,但这些特征通常是针对特定数据集设计的,因此难以推广。最近的研究则尝试使用深度神经网络来预测复杂性,然而这些模型仍然难以解释,并且无法指导理论对问题的理解。因此,我们建议采用基于分段的图像表示来模拟复杂性。我们使用了先进的分割模型SAM和FC-CLIP,在不同粒度上量化图像中的分段数量和类别数量。研究发现,通过这两个特征,简单的线性模型能够很好地解释六个不同图像集中自然场景和艺术图像的复杂性。这表明图像的复杂性可能出乎意料地简单。
3、MiKASA: Multi-Key-Anchor & Scene-Aware Transformer for 3D Visual Grounding
中文标题:MiKASA:用于3D视觉定位的多关键锚点和场景感知变压器
简介:3D视觉定位是将自然语言描述与3D空间中的对象进行匹配的过程。目前的方法在对象识别准确性和解释复杂语言查询方面存在挑战,尤其是涉及多个锚点或视角相关描述时。为解决这一问题,我们提出了MiKASA(Multi-Key Anchor & Scene-Aware)变压器。我们的端到端训练模型结合了基于自我注意力的场景感知对象编码器和原始的多键锚点技术,从而提高了对象识别准确性和空间关系理解。此外,MiKASA提高了决策可解释性,有助于错误诊断。我们的模型在Referit3D挑战赛中在Sr3D和Nr3D数据集上取得了最高整体准确性,尤其在需要视角相关描述的类别中表现突出。项目的源代码和其他资源可在GitHub上找到:https://github.com/birdy666/MiKASA-3DVG。