3D视觉基础

3D 视觉领域是计算机视觉的一个重要分支,旨在模拟和分析三维空间中的物体、场景和运动。它结合了图像处理、计算几何学、机器学习和深度学习等技术,以从二维图像或传感器数据中重建三维信息。本文主要介绍 3D 视觉中的一些基础概念。

目录

  • [一. 三维坐标系统](#一. 三维坐标系统)
  • [二. 深度信息](#二. 深度信息)
  • [三. 摄像机标定](#三. 摄像机标定)
  • [四. 传感器](#四. 传感器)
  • [五. 点云处理](#五. 点云处理)
  • [六. 特征提取与匹配](#六. 特征提取与匹配)
  • [七. 三维重建](#七. 三维重建)
  • [八. 物体检测和跟踪](#八. 物体检测和跟踪)
  • [九. 三维场景可视化](#九. 三维场景可视化)
  • [十. 3D 视觉应用](#十. 3D 视觉应用)

一. 三维坐标系统

在 3D 视觉中,三维坐标系统是一种用于表示和定位三维空间中的点和物体的数学工具。它通常是基于笛卡尔坐标系的,也被称为三维直角坐标系,其中一个点的位置由 (x, y, z) 坐标表示,分别表示在水平、垂直和深度方向上的位置。

需要注意的是,三维坐标系有左手系和右手系之分 ^1^。在数学和物理学中,通常使用右手系;而在计算机图形学、虚拟现实等领域,通常使用左手系。

二. 深度信息

现实中使用单目相机进行目标检测的时候,只能获取所检测物体距离相机的横纵向距离信息,而物体到水平面的投影与相机到水平面的投影之间的距离无法测量。原因是相机在获取图像的时候会将物体的三维信息降维至二维图像信息,此时物体大部分的深度信息将无法逆向复原! ^2^ 这可以用 ⌈ \lceil ⌈ 基本透视投影 ⌋ \rfloor ⌋ 解释:透视投影是多对一的关系,投影线上的任何一点对应同一个像点。

其实,图像在拍摄的过程中丢失的一维信息就是 物体在空间里的相互距离 ,即使我们可以看到大概的方位,但还是没有办法准确的估计距离,这里的 "物体在空间里的相互距离" 也就是 深度(Depth)信息 所指的含义。为了方便计算,深度信息在机器视觉里都是指 空间里面的各个点相对于摄像头的距离,知道了这个信息之后就可以很方便的计算各点之间的相互距离了。

既然一个摄像机会丢失物体在空间里的相互距离,那么两个摄像机呢?显然,如果用两个摄像机,就可以消除这种多对一的关系,从而确定三维坐标的值,即深度信息。这就是双目为什么可以感知深度信息的原因,因为我们的左右眼从略微不同的角度观察景物,而这种视差与物体所处的位置有关 ^3^。这种使用两个及以上机位获取物体深度信息的方法称为立体视觉。

除了立体视觉,深度信息还可以通过 ToF 相机 ^4^、结构光 ^5^、单目视觉与深度传感器结合等方法获得 ^6^ 。

总的来说,深度信息是指图像或场景中各个点的距离或空间位置信息,通常以三维坐标来表示。深度信息是人类产生立体视觉的前提,在计算机视觉领域至关重要,计算机通过深度信息得以理解和感知环境的三维结构。此外,深度信息在室内导航、人机交互、医学影像、3D建模与游戏开发等领域都有着广泛的应用。

三. 摄像机标定

摄像机标定 (Camera Calibration) 是 3D 视觉领域的一个重要步骤,用于确定摄像机的内部参数和外部参数,以便将三维世界中的点映射到二维图像中。摄像机需要标定的参数 ^7^ 包括:

  • 内部参数标定 (Intrinsic Calibration):

    • 焦距 (Focal Length):确定摄像机的焦距,这是镜头的一个关键参数,用于确定图像中的尺度。
    • 主点 (Principal Point):确定图像的主点,通常是图像中心点,用于确定图像的坐标原点。
    • 畸变参数 (Distortion Parameters):校正径向畸变和切向畸变,以确保图像中的点的位置准确。
  • 外部参数标定 (Extrinsic Calibration):

    • 位置 (Position):确定摄像机在三维世界坐标系中的位置。
    • 姿态 (Orientation):确定摄像机的姿态或方向,通常使用旋转矩阵或欧拉角表示。

摄像机的标定过程通常包括以下步骤:

  1. 三维点云 (3D Point Cloud):收集一组已知的三维世界中的点,通常使用标定板或其他已知形状的对象。

  2. 图像点匹配 (Image Point Correspondence):从摄像机拍摄的图像中检测和跟踪标定板或对象上的特征点,并将这些特征点与其在三维空间中的对应点进行匹配。

  3. 标定算法 (Calibration Algorithm):应用标定算法,通常使用的方法包括张正友标定法或 Tsai--Lenz 模型等。

  4. 参数估计 (Parameter Estimation):通过标定算法估计摄像机的内部和外部参数,以及畸变参数。

  5. 验证与优化:验证标定结果的准确性,并进行必要的校正和优化,以提高标定的精度。

四. 传感器

3D 视觉中使用的传感器是用来捕捉三维空间中物体的位置、形状和深度信息的设备。这些传感器可以在各种应用中使用,包括机器人技术、虚拟现实、增强现实、医疗影像、自动驾驶汽车和工业自动化等领域。以下是一些常见的 3D 视觉传感器:

  • 激光雷达 (LIDAR):激光雷达是一种使用激光束来测量物体距离的传感器,通过发送激光脉冲并测量脉冲返回的时间来计算物体的距离。
  • 结构光传感器:结构光传感器使用投射器将结构光照射到物体上,然后通过摄像机捕捉物体表面反射的结构光图案。通过分析这些图案的形状和变化,传感器可以计算出物体的三维几何信息。这种传感器常用于 3D 扫描和人脸识别等应用。
  • 飞行时间摄像头 (Time-of-Flight Camera):这类摄像头使用光脉冲测量从摄像头到物体表面的时间,然后根据光的速度计算物体的距离。Time-of-Flight 摄像头能够实时捕捉物体的深度信息,适用于虚拟现实、姿势追踪和手势识别等应用。
  • 立体相机:立体相机由两个或多个摄像头组成,模拟人类双眼视觉。通过比较这些摄像头捕获的图像,可以计算出物体的深度信息。立体相机常用于机器人导航、虚拟现实和增强现实。
  • 深度传感器:深度传感器是一类可以测量物体与传感器之间距离的设备,如 Microsoft Kinect。它们通常结合了红外摄像机、红外光源和深度传感技术,用于 3D 游戏、手势控制、人体姿势追踪等应用。

五. 点云处理

点云处理 (Point Cloud Processing) 是计算机视觉领域的一个重要主题,它涉及到从 3D 场景中获取、处理和分析点的坐标信息。点云是三维空间中一组离散点的集合,通常以 (x, y, z) 三维坐标值来表示。点云通常是由激光扫描仪、摄像机或其他传感器采集的数据,这些点表示了物体表面上的离散位置。

点云处理的一般步骤如下:

  1. 点云获取:点云数据可以通过激光扫描仪、摄像机、深度传感器等设备来获取。这些设备通过发送光线或信号并测量其反射来捕获点的三维坐标。

  2. 点云预处理:在进行更复杂的分析之前,通常需要对点云数据进行预处理。这包括去噪、滤波、点云配准(将多个点云数据集合并成一个),以及移除无关的点。

  3. 特征提取:点云处理通常涉及从点云中提取有用的特征,如平面、边缘、角点等。这些特征有助于识别和分析物体。

  4. 点云分割:点云中的分割是将点云分成不同的物体或区域的过程。这可以用于目标检测、物体识别和场景分析。

  5. 三维重建:点云处理可用于创建物体的三维模型,这在虚拟现实、增强现实和计算机辅助设计中非常有用。

点云处理的方法包括传统的计算机视觉技术,如特征提取和分割,以及一些深度学习方法,如卷积神经网络 (CNN) 和循环神经网络 (RNN) 。这些技术的不断发展已经使点云处理变得更加强大和灵活,为许多领域提供了新的机会和解决方案 ^8^ 。

六. 特征提取与匹配

特征提取与匹配是 3D 视觉中的重要任务,用于识别和跟踪图像或点云中的关键特征,这些特征可以用于对象识别、姿态估计、物体跟踪、三维重建等应用。

  • 特征提取:从原始数据(图像、点云等)中提取有用信息的过程。在2D图像中,特征可以包括角点、边缘、斑点、纹理等。在 3D 点云中,特征可以包括关键点、平面、边缘、曲线等。常用的特征提取算法包括 Harris 角点检测、SIFT(尺度不变特征变换)、SURF(加速稳健特征)、ORB(Oriented FAST and Rotated BRIEF)等。

  • 特征描述:一旦提取了特征,通常需要对其进行描述,以便进行匹配。特征描述算法会生成一个向量或特征描述符,用于表示该特征的外观和结构信息。常见的特征描述算法包括 SIFT 描述符、SURF 描述符、ORB 描述符、HOG(方向梯度直方图)描述符等。

  • 特征匹配:将一个场景中的特征与另一个场景中的特征进行对应的过程,以建立它们之间的关联。匹配通常涉及计算描述符之间的相似性度量,例如欧氏距离、汉明距离、角度差异等。特征匹配可以用于目标识别、图像拼接、姿态估计、SLAM 等任务。

特征提取和匹配在 3D 视觉中有广泛的应用,包括点云配准(点云的对齐和融合)、SLAM 系统中的关键帧选择和匹配、物体识别和姿态估计等。在 AR 和 VR 中,特征提取和匹配也用于实时跟踪和渲染虚拟对象。

七. 三维重建

三维重建 (3D Reconstruction) 是指通过从二维图像或其他感知数据中提取信息,创建或还原三维场景或物体的过程。常见的三维重建表达方式 ^9^ 有点云、体素、网格、深度图:

  • 点云 (point cloud):点云是三维空间中一组离散点的集合,通常以 (x, y, z) 三维坐标值来表示。这些点可以代表物体表面、场景或环境的形状和结构,通常由 3D 传感器(如激光雷达、深度相机、立体视觉系统等)采集而来,也可以通过结构光扫描、摄影测量等方法生成。

  • 体素 (voxel):体素是三维空间中的离散单位,用于表示物体的体积、场景或任何三维数据,相当于三维图像中的像素。体素是三维图像或体积数据中的三维像素,具有三维坐标 (x, y, z),因此它们代表了一个立体的体积元素。

  • 网格 (mesh):网格是一个离散化的二维或三维数据结构,通常用于表示空间中的对象、场景或物体的形状、结构和属性。网格通常由一系列的单元格或元素组成,这些单元格排列成规则的格点或网格点,形成一个离散化的表示。

    网格中使用最广泛的是三角网格,三角网格是全部由三角形组成的多边形网格,任意多边形网格都能转换成三角网格。

  • 深度图 (depth):深度图是一种用于表示三维场景中不同点的深度或距离信息的图像。深度图通常是二维图像,但每个像素的灰度值或颜色编码表示了对应三维点到视点或相机的距离。

三维重建通常包括以下步骤 ^10^:

  1. 数据采集:三维重建的第一步是获取用于建立三维模型的数据,这些数据可以来自各种传感器,如摄像头、激光雷达、深度传感器等。这些传感器采集的数据可以是图像、点云、深度图等。
  2. 特征提取:从采集的数据中提取特征点或特征描述符,以帮助计算机理解场景的结构。这些特征可以包括边缘、角点、表面纹理等。
  3. 配准:将不同视角或传感器采集的数据进行配准,以建立它们之间的关联。这可以通过特征匹配、相机标定、点云配准等方法来实现。
  4. 三维重建:根据配准后的数据,使用各种算法和技术来生成三维模型。有多种方法可用于三维重建,包括结构光扫描、立体视觉、多视图几何、三角法、体素化等。
  5. 补洞与纹理映射:生成的三维模型可能会有缺陷或未完全闭合的部分。在这一阶段,通常需要对模型进行处理,以填补这些缺陷,并将纹理映射到模型表面,以使其更具真实感。
  6. 后处理与可视化:进行三维模型的后处理,以改进其质量,去噪声,删除不需要的细节等。然后,将模型可视化,通常以三维渲染的形式,以便进一步分析或展示。

三维重建在许多应用中都有重要作用,如建筑信息建模、文物保护、虚拟现实游戏开发、医学影像学、机器人导航和地质勘探等。更多三维重建方法见 三维重建方法汇总

八. 物体检测和跟踪

物体检测和跟踪 (Object Detection and Tracking) 涉及使用传感器数据(如摄像头、激光雷达等)来检测、识别和跟踪三维空间中的物体。物体检测是指识别和定位图像或点云中的物体,检测需要考虑物体的三维位置和方向,常用的方法包括卷积神经网络(CNN)和多视图几何方法。物体跟踪是指在不同时间步骤中连续追踪物体的位置和姿态,通常需要使用目标运动模型和数据关联算法。

在许多应用中,物体检测和跟踪的实时性和鲁棒性至关重要,系统必须在复杂环境中快速而准确地检测和跟踪物体。

九. 三维场景可视化

三维场景可视化旨在以可视化的方式呈现三维世界,以便用户能够与之进行交互。下面将简单介绍一些常用技术:

  • 渲染 (Rendering):渲染是将三维场景转化为二维图像的过程,以便用户能够观看和理解。渲染可以分为实时渲染和离线渲染。

    • 实时渲染:通常用于视频游戏和虚拟现实应用,要求在短时间内生成高质量的图像,以满足用户的交互需求。
    • 离线渲染:通常用于电影制作和静态图像生成,它可以在更长的时间内生成高质量的图像,因为不需要实时性。
  • 模型呈现 (Model Representation):三维模型通常由多边形(如三角形或四边形)组成,这些模型用来表示物体的外观和形状。模型呈现包括模型构建、纹理映射、材质和光照等方面,以使模型在渲染时看起来逼真。三维模型可以由计算机辅助设计软件创建,或者通过 3D 扫描从实际对象中获取。

  • 虚拟现实 (Virtual Reality, VR):虚拟现实技术通过头戴式显示器和控制器等设备,将用户带入虚拟的三维世界。用户可以在虚拟现实中沉浸式地与环境互动,感受到三维场景中的物体和效果。VR 技术用于游戏、模拟训练、医疗治疗和教育等领域。

  • 增强现实 (Augmented Reality, AR):增强现实将虚拟元素叠加在真实世界中,通过智能手机、AR眼镜或其他设备进行观看。用户可以看到真实世界的环境,同时在屏幕上看到虚拟对象或信息,这可以增强用户对环境的理解和互动。AR 技术应用广泛,包括用于导航、游戏、零售体验和培训。

三维场景可视化还需提供用户与环境互动的能力,这包括用户能够移动、旋转、缩放和与虚拟对象互动,以模拟现实世界的行为。随着技术的不断发展,三维场景可视化将继续为用户提供更加沉浸式和互动性的体验,同时推动着虚拟世界和现实世界的融合。

十. 3D 视觉应用

3D 视觉利用三维视觉技术来处理和分析图像或视频中的三维信息,以实现各种应用。

  • 虚拟现实:通过特殊设备如头戴式显示器,以三维图像和声音模拟用户的感官体验。3D 视觉技术用于创建沉浸式虚拟环境,让用户感觉好像置身于虚拟世界中。

  • 增强现实:AR 应用通过将虚拟元素叠加在现实世界中,提供有关实际环境的增强信息。3D 视觉技术用于将虚拟对象与实际环境进行精确匹配。

  • 医疗影像处理:医疗领域使用 3D 视觉技术来分析医学影像,如 CT 扫描、MRI 和 X 射线,以进行诊断和手术规划。

  • 文化遗产保护:3D 扫描和重建技术有助于保护文化遗产和艺术品。这些技术可以创建数字档案,以备份、研究和展示文化遗产物品。

  • 虚拟试衣间:这是零售业中的一种越来越流行的应用,允许顾客使用 3D 模型来试穿虚拟服装,以便更好地选择尺寸和风格。

  • 教育和培训:3D 视觉应用可用于教育和培训领域,以创造沉浸式学习体验,例如虚拟实验室、培训模拟和三维解剖学。

  • 游戏开发:3D 视觉是视频游戏和电影特效制作的关键组成部分,用于创建逼真的三维场景和角色。

总之,3D 视觉在各种应用中具有广泛的用途,它不仅提供了深入理解和模拟三维空间的工具,还推动了许多现代科学、工程和娱乐领域的发展。


  1. 常用三维坐标系 ↩︎

  2. 关于计算机视觉中的深度信息概念 ↩︎

  3. 视差与深度信息 ↩︎

  4. TOF(Time-of-Flight) Camera介绍 ↩︎

  5. 结构光3D成像原理及应用 ↩︎

  6. 一文了解三种3D视觉技术 ↩︎

  7. 3D视觉基础整理 (一) ↩︎

  8. 一文入门 3D 视觉算法基础 ↩︎

  9. 三维重建(单目、双目、多目、点云、SFM、SLAM) ↩︎

  10. 三维重建(知识点详细解读、主要流程) ↩︎

相关推荐
华清远见IT开放实验室27 分钟前
【每天学点AI】实战图像增强技术在人工智能图像处理中的应用
图像处理·人工智能·python·opencv·计算机视觉
只怕自己不够好40 分钟前
《OpenCV 图像缩放、翻转与变换全攻略:从基础操作到高级应用实战》
人工智能·opencv·计算机视觉
HPC_fac130520678164 小时前
以科学计算为切入点:剖析英伟达服务器过热难题
服务器·人工智能·深度学习·机器学习·计算机视觉·数据挖掘·gpu算力
小陈phd7 小时前
OpenCV从入门到精通实战(九)——基于dlib的疲劳监测 ear计算
人工智能·opencv·计算机视觉
如若12312 小时前
主要用于图像的颜色提取、替换以及区域修改
人工智能·opencv·计算机视觉
加密新世界14 小时前
优化 Solana 程序
人工智能·算法·计算机视觉
WeeJot嵌入式17 小时前
OpenCV:计算机视觉的瑞士军刀
计算机视觉
思通数科多模态大模型17 小时前
10大核心应用场景,解锁AI检测系统的智能安全之道
人工智能·深度学习·安全·目标检测·计算机视觉·自然语言处理·数据挖掘
学不会lostfound17 小时前
三、计算机视觉_05MTCNN人脸检测
pytorch·深度学习·计算机视觉·mtcnn·p-net·r-net·o-net
前端Hardy17 小时前
HTML&CSS:数据卡片可以这样设计
前端·javascript·css·3d·html