双目三维重建-2双目系统标定

什么叫做双目系统

计算机视觉中,之前很多大佬做了很多研究都是关于如何模拟两个人眼来确定空间中的一个点的远近(Z方向坐标),我们都知道一个相机在一定程度上是可以描述XY方向的信息,那么双目系统就是在XY方向的信息中再增加Z方向上的信息。

双目就是两个相机,一般是并排着放置,请看灵魂画手绘制的下图:

双目系统标定究竟标定什么

说到这里就可以直接上代码

先看看这个函数的参数:

第一个参数是标定板坐标系上的三维角点数据

第二个数据是左相机在图像上识别到的二维像素点数据

第三个数据是右相机识别到的二维像素点数据

第四个数据是左相机在之前标定出来的内参矩阵K

第五个是做相机在之前标定出来的畸变系数

下面两个是右相机的标定数据,就不一一说了

这个是图像是尺寸

这个是标定算法迭代的终止条件

上述的具体内容是说EPS误差小于0.001或者迭代次数大于30次任意满足一个条件算法就可以停止下来了。

这个参数是说两个相机的内参矩阵就保持之前单目标定的内参矩阵,不需要在双目标定的过程中再重新计算了。

当然你也可以选现在双目标定的时候再优化一下左右相机的内参矩阵,个人感觉区别并不是很大。

双目标定得到什么

那么需要给进去的数据说完了,那么双目标定完成之后我们可以得到什么数据呢?

得到了一堆东西,依次来说

按道理来说是标定的rms误差,像素单位的,如果这个值小于0,那么大概率标定失败了,应该检查一下传入的数据是否错误;

这四个对象看名字就知道了,这是左右相机优化之后的相机内参矩阵和畸变系数

这四个名字很简单的矩阵就是我们的重头戏了

一看到RT我们就要想到旋转矩阵和平移向量,事实证明确实也是这样的,这是左右相机坐标系的RT矩阵,共同描述在空间中从左相机坐标系到右坐标系的转换关系;

E矩阵叫做本质矩阵

F矩阵叫做基础矩阵

这里不展开来说了,稍微有点点说不清楚,有点小复杂。

我们后续作用比较大的还是相机的内参矩阵和RT矩阵

相关推荐
CoovallyAIHub2 小时前
仿生学突破:SILD模型如何让无人机在电力线迷宫中发现“隐形威胁”
深度学习·算法·计算机视觉
CoovallyAIHub2 小时前
从春晚机器人到零样本革命:YOLO26-Pose姿态估计实战指南
深度学习·算法·计算机视觉
CoovallyAIHub2 小时前
Le-DETR:省80%预训练数据,这个实时检测Transformer刷新SOTA|Georgia Tech & 北交大
深度学习·算法·计算机视觉
CoovallyAIHub2 小时前
强化学习凭什么比监督学习更聪明?RL的“聪明”并非来自算法,而是因为它学会了“挑食”
深度学习·算法·计算机视觉
CoovallyAIHub3 小时前
YOLO-IOD深度解析:打破实时增量目标检测的三重知识冲突
深度学习·算法·计算机视觉
这张生成的图像能检测吗2 天前
(论文速读)XLNet:语言理解的广义自回归预训练
人工智能·计算机视觉·nlp·注意力机制
十铭忘2 天前
自主认知-行动1——架构
人工智能·计算机视觉
yuzhuanhei2 天前
YOLO26实操记录(自用)
人工智能·计算机视觉·目标跟踪
sali-tec2 天前
C# 基于OpenCv的视觉工作流-章27-图像分割
图像处理·人工智能·opencv·算法·计算机视觉
saoys2 天前
Opencv 学习笔记:腐蚀操作 + 轮廓标记 + 分水岭分割
笔记·opencv·学习