[Computer Vision]实验四:相机标定

目录

一、实验内容

二、实验过程及结果

[2.1 实验代码](#2.1 实验代码)

[2.2 实验结果及分析](#2.2 实验结果及分析)


一、实验 内容

了解针孔照相机的相关知识,实现相机标定。(可使用提供的棋盘格或自行打印)

  1. 可视化棋盘格关键点、匹配点数(可加ransac)
  2. 输出棋盘格图片对应的单应性矩阵H(打印至少2张)
  3. 打印相机内参(高亮焦距)、不同棋盘格图像对应的外参

二、实验过程及结果

2.1 实验代码
python 复制代码
import cv2
import numpy as np
import glob

pattern_size=(8,11)
square_size=2
obj_points=[]
img_points=[]
objp = np.zeros((pattern_size[0] * pattern_size[1], 3), np.float32)
objp[:, :2] = np.mgrid[0:pattern_size[0], 0:pattern_size[1]].T.reshape(-1, 2) * square_size
images_path="D:/Computer vision/Chessboard_picture/*.jpg"
images=glob.glob(images_path)

for fname in images:
    img=cv2.imread(fname)
    gray=cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)
    ret,corners=cv2.findChessboardCorners(gray,pattern_size)
    if ret:
        obj_points.append(objp)

        corners2=cv2.cornerSubPix(gray,corners,(11,11),(-1,-1),(cv2.TERM_CRITERIA_EPS+cv2.TERM_CRITERIA_MAX_ITER,30,0.001))
        img_points.append(corners2)
        print(f"{fname}的角点数量:{len(corners)}")
        img=cv2.drawChessboardCorners(img,pattern_size,corners2,ret)
        cv2.imshow('img',img)
        cv2.waitKey(500)
        new_fname='calib_'+fname.split("\\")[-1]
        cv2.imwrite(new_fname,img)
cv2.destroyAllWindows()

ret,mtx,dist,rvecs,tvecs=cv2.calibrateCamera(obj_points,img_points,gray.shape[::-1],None,None)
print("内参矩阵:")
print(mtx)
print("畸变系数:")
print(dist)

mean_error = 0
for i in range(len(obj_points)):
    img_points2, _ = cv2.projectPoints(obj_points[i], rvecs[i], tvecs[i], mtx, dist)
    error = cv2.norm(img_points[i], img_points2, cv2.NORM_L2) / len(img_points2)
    mean_error += error
print("平均重投影误差:{}".format(mean_error / len(obj_points)))

for i in range(len(rvecs)):
    print("第{}张图片的外参矩阵:".format(i + 1))
    R = cv2.Rodrigues(rvecs[i])[0]
    print(R)
    print(tvecs[i])

if len(img_points) >= 2:
    for i in range(len(img_points) - 1):
        H, mask = cv2.findHomography(img_points[i], img_points[i + 1], cv2.RANSAC)
        print(f"第{i + 1}到第{i + 2}张图片的单应性矩阵H:")
        print(H)
        print(f"匹配点数(RANSAC前):{len(img_points[i])}")
        print(f"匹配点数(RANSAC后):{np.sum(mask)}")
else:
print("没有足够的图片来计算单应性矩阵H")
for fname in images:
    img=cv2.imread(fname)
    h, w = img.shape[:2]
    new_camera_mtx, roi = cv2.getOptimalNewCameraMatrix(mtx, dist, (w, h), 1, (w, h))
    dst = cv2.undistort(img, mtx, dist, None, new_camera_mtx)
    x, y, w, h = roi
    dst = dst[y:y+h, x:x+w]
    cv2.imshow('undistorted', dst)
    cv2.waitKey()
    corrected_fname = 'corrected_' + fname.split("\\")[-1]
    cv2.imwrite(corrected_fname, dst)
cv2.destroyAllWindows()
2.2 实验结果及分析

实验结果如下图所示:

1.如图1所示,打印了每个图片的角点数量,结果图中显示的7张图片均被检测到了88个角点;

2.如图1所示,打印了内参矩阵(mtx)包含了相机的焦距(fx, fy)和主点坐标(cx, cy),畸变系数(dist)描述了镜头的径向和切向畸变。这些参数用于校正图像中的畸变,使得图像更加真实。根据图片中的结果显示,fx=270.9028,fy=248.6261,cx=135.2334,cy=131.0869

3.计算重投影误差,如图2所示。重投影误差反映了实际图像点与通过标定参数(内参矩阵、畸变系数)反投影得到的图像点之间的差异,差异越小,说明标定结果越精确。实验中得到的重投影误差为0.4628

4.如图3所示,打印输出每张图片的外参矩阵,包括旋转矩阵R和平移向量tves。

5.如图4所示,打印相邻图片之间的单应性矩阵,描述两个视角之间的投影变换关系。通过RANSAC算法可以过滤掉一些错误的匹配点,从而得到更可靠的单应性矩阵。

6.最后在图片中绘制并显示角点,如图5所示。

7.根据畸变系数进行图像矫正,结果如图6所示。
图1 图2
图3
图4 图5
图6

相关推荐
feng995202 小时前
技术伦理双轨认证如何重构AI工程师能力评估体系——基于AAIA框架的技术解析与行业实证研究
人工智能·aaif·aaia·iaaai
2301_776681652 小时前
【用「概率思维」重新理解生活】
开发语言·人工智能·自然语言处理
蜡笔小新..2 小时前
从零开始:用PyTorch构建CIFAR-10图像分类模型达到接近1的准确率
人工智能·pytorch·机器学习·分类·cifar-10
富唯智能2 小时前
转运机器人可以绕障吗?
人工智能·智能机器人·转运机器人
视觉语言导航3 小时前
湖南大学3D场景问答最新综述!3D-SQA:3D场景问答助力具身智能场景理解
人工智能·深度学习·具身智能
AidLux3 小时前
端侧智能重构智能监控新路径 | 2025 高通边缘智能创新应用大赛第三场公开课来袭!
大数据·人工智能
引量AI3 小时前
TikTok矩阵运营干货:从0到1打造爆款矩阵
人工智能·矩阵·自动化·tiktok矩阵·海外社媒
Hi-Dison3 小时前
神经网络极简入门技术分享
人工智能·深度学习·神经网络
奋斗者1号4 小时前
机器学习之决策树模型:从基础概念到条件类型详解
人工智能·决策树·机器学习
LinkTime_Cloud4 小时前
谷歌引入 AI 反诈系统:利用语言模型分析潜在恶意网站
人工智能·语言模型·自然语言处理