SLAM中提到的相机位姿到底指什么?

不小心又绕进去了,所以掰一下。

以我个人最直观的理解,假设无旋转,相机在世界坐标系的(5,0,0)^T的位置上,所谓"位姿",应该反映相机的位置,所以相机位姿应该如下:

cpp 复制代码
    Eigen::Matrix4d T = Eigen::Matrix4d::Identity(); // 假设T是一个4x4的矩阵,初始化为单位矩阵
    T(0, 3) = 5.0;

但是根据我对位姿的这个理解,再结合高翔博士的《十四讲》第五章,第二版P99,世界坐标系的点变换到相机坐标系,是直接"左乘""相机位姿",Pc=T*Pw,那么这就出现了一些小问题

问题点:相机坐标是(5,0,0)^T,世界坐标点位置是(100,0,0)^T,相机坐标系下,这个点肯定是100-5,是(95,0,0)^T,但是又因为相机"位姿"是(5,0,0)^T,直接左乘相机"位姿"就得到了第一个结果"Pc=105 0 0",这明显和预期不一样,按照这种T的声明与定义,需要左乘T的逆才能得到预期的结果"Pc3 = 95 0 0 1"(齐次)

所以高翔博士提到的位姿是可以直接左乘的,和我认为的位姿是逆的关系。

根据习惯定义,想把Pw转换为Pc,应该是Pc=Tcw*Pw,高翔博士称为位姿的是Tcw。

根据主观习惯,相机在世界坐标系的位姿应该是Twc。想获得Pc应该是Pc=Twc^(-1)*Pw。

所以,我们产生了两种位姿描述。哪一种是正确的呢?很遗憾,我目前没有答案,网上搜到的一些关于位姿的解释则更加"和稀泥",Tcw和Twc两种都可以叫位姿。根据有限的学识,我只能说我们清楚什么变换能干什么,能通过调整用法获得自己想要的结果就好,个别说法不能较真。

相关推荐
Techblog of HaoWANG5 小时前
目标检测与跟踪 (8)- 机器人视觉窄带线激光缝隙检测系统开发
人工智能·opencv·目标检测·机器人·视觉检测·控制
码农三叔5 小时前
(8-3)传感器系统与信息获取:多传感器同步与传输
人工智能·机器人·人形机器人
智者知已应修善业6 小时前
【查找字符最大下标以*符号分割以**结束】2024-12-24
c语言·c++·经验分享·笔记·算法
91刘仁德7 小时前
c++类和对象(下)
c语言·jvm·c++·经验分享·笔记·算法
diediedei7 小时前
模板编译期类型检查
开发语言·c++·算法
阿杰学AI7 小时前
AI核心知识78——大语言模型之CLM(简洁且通俗易懂版)
人工智能·算法·ai·语言模型·rag·clm·语境化语言模型
mmz12077 小时前
分治算法(c++)
c++·算法
睡一觉就好了。8 小时前
快速排序——霍尔排序,前后指针排序,非递归排序
数据结构·算法·排序算法
Tansmjs8 小时前
C++编译期数据结构
开发语言·c++·算法
金枪不摆鳍8 小时前
算法-字典树
开发语言·算法