《计算机视觉中的多视图几何》笔记(5)

5 Algorithm Evaluation and Error Analysis

本章主要讲述对算法的验证和误差分析。

概述了两种计算这种不确定性(协方差)的方法。第一个基于线性近似值,涉及串联各种雅各布表达式,第二个是更容易实施蒙特卡洛方法。

文章目录

  • [5 Algorithm Evaluation and Error Analysis](#5 Algorithm Evaluation and Error Analysis)
    • [5.1 Bounds on performance](#5.1 Bounds on performance)
    • [5.2 Covariance of the estimated transformation H H H的协方差](#5.2 Covariance of the estimated transformation H H H的协方差)
    • [5.3 Monte Carlo estimation of covariance](#5.3 Monte Carlo estimation of covariance)

5.1 Bounds on performance

一旦开发出一种算法来估计某种类型的转换,就该测试其性能了。 这可以通过对真实或合成数据进行测试来完成。 在本节中,将对合成数据进行测试。

我们先重申一些在前面章节使用到的符号约定:

  • x x x之类的表示测量的图像点。
  • 估计值由hat表示,例如 x ^ \hat{x} x^或 H ^ \hat{H} H^。
  • 真实值由bar表示,例如 x ˉ \bar{x} xˉ或 H ˉ \bar{H} Hˉ。

5.1.1 Error in one image

首先再来明确一下 x ^ ′ \hat{x}' x^′的定义, x ↔ x ′ x \leftrightarrow x' x↔x′是一对有噪声的 对应点,所以从 x ↔ x ′ x \leftrightarrow x' x↔x′估计出的 H H H其实不满足 x ′ = H x x'=Hx x′=Hx,总是含有误差的。那么我们可以记 x ^ ′ = H x \hat{x}'=Hx x^′=Hx,那么 x ^ \hat{x} x^就和 x x x是完美匹配的,对 x ′ x' x′也可以找出这么一对完美匹配的点。那么在一张图上的误差就是:

ϵ r e s = ( 1 2 n ∑ i = 1 n d ( x i ′ , x i ^ ′ ) 2 ) 1 2 \epsilon_{res} = (\frac{1}{2n}\sum_{i=1}^{n} d(x'_i,\hat{x_i}')^{2})^{\frac{1}{2}} ϵres=(2n1i=1∑nd(xi′,xi^′)2)21

5.1.2 Error in both images

两张图的误差就是:

ϵ r e s = 1 4 n ( ∑ i = 1 n d ( x i , x i ^ ) 2 + ∑ i = 1 n d ( x i ′ , x i ^ ′ ) 2 ) 1 2 \epsilon_{res} = \frac{1}{\sqrt{4n}}(\sum_{i=1}^{n} d(x_{i},\hat{x_{i}})^{2} + \sum_{i=1}^{n} d(x'{i},\hat{x{i}}')^{2})^{\frac{1}{2}} ϵres=4n 1(i=1∑nd(xi,xi^)2+i=1∑nd(xi′,xi^′)2)21

最大后验概率误差的期望(几何误差)

最小化几何误差等于求最大后验概率,既然从概率角度考虑,那么我们就求误差的期望。

书中给出的结论是:在N维空间中有协方差为 N σ N\sigma Nσ的高斯噪声,我们要求d个自由度的投影变换,那么有如下公式:

  1. x x x到 x ^ \hat{x} x^的误差是 σ ( 1 − d / N ) 1 / 2 \sigma(1-d/N)^{1/2} σ(1−d/N)1/2
  2. x x x到 x ˉ \bar{x} xˉ的误差是 σ ( 1 − d / N ) 1 / 2 \sigma(1-d/N)^{1/2} σ(1−d/N)1/2, x ˉ \bar{x} xˉ是真实值ground truth,是没有噪声的点

5.2 Covariance of the estimated transformation H H H的协方差

H H H的协方差主要是来计算方差的,方差衡量 H H H本身有多准确, H H H有9个变量,那么它的协方差矩阵就是 9 × 9 9 \times 9 9×9

那么一张图上的这个协方差矩阵怎么算,书中给出了如下公式:

Σ h = ( J f T Σ x J f ) \Sigma_h=(J_f^T \Sigma_x J_f) Σh=(JfTΣxJf)

其中, Σ x \Sigma_x Σx是噪声,也就是高斯分布的协方差矩阵, J f J_f Jf是雅可比矩阵,可以根据对应点用p146 5.11式算出。

两张图上的协方差可以用p147 5.2.5节的公式计算。

5.3 Monte Carlo estimation of covariance

先找若干对匹配点,算出一个 H H H,然后再人为加上噪声,再计算一个 H ′ H' H′,这样就可以计算协方差矩阵,进而计算方差。

相关推荐
神奇夜光杯2 分钟前
Python酷库之旅-第三方库Pandas(202)
开发语言·人工智能·python·excel·pandas·标准库及第三方库·学习与成长
正义的彬彬侠5 分钟前
《XGBoost算法的原理推导》12-14决策树复杂度的正则化项 公式解析
人工智能·决策树·机器学习·集成学习·boosting·xgboost
Debroon14 分钟前
RuleAlign 规则对齐框架:将医生的诊断规则形式化并注入模型,无需额外人工标注的自动对齐方法
人工智能
羊小猪~~21 分钟前
神经网络基础--什么是正向传播??什么是方向传播??
人工智能·pytorch·python·深度学习·神经网络·算法·机器学习
AI小杨22 分钟前
【车道线检测】一、传统车道线检测:基于霍夫变换的车道线检测史诗级详细教程
人工智能·opencv·计算机视觉·霍夫变换·车道线检测
晨曦_子画27 分钟前
编程语言之战:AI 之后的 Kotlin 与 Java
android·java·开发语言·人工智能·kotlin
道可云29 分钟前
道可云人工智能&元宇宙每日资讯|2024国际虚拟现实创新大会将在青岛举办
大数据·人工智能·3d·机器人·ar·vr
Yawesh_best36 分钟前
思源笔记轻松连接本地Ollama大语言模型,开启AI写作新体验!
笔记·语言模型·ai写作
人工智能培训咨询叶梓38 分钟前
探索开放资源上指令微调语言模型的现状
人工智能·语言模型·自然语言处理·性能优化·调优·大模型微调·指令微调
zzZ_CMing38 分钟前
大语言模型训练的全过程:预训练、微调、RLHF
人工智能·自然语言处理·aigc