移动最小二乘法(Moving Least Squares, MLS)的推导

移动最小二乘法(Moving Least Squares, MLS)的推导

移动最小二乘法(MLS)是一种用于平滑、重建和拟合离散点云数据的算法。其核心思想是使用加权的局部最小二乘拟合,将全局最小二乘拟合推广到局部区域,并通过移动窗口动态调整拟合位置。以下是详细的推导过程。


目标问题

给定一组离散点云 { ( x i , y i ) } i = 1 N \{(x_i, y_i)\}_{i=1}^N {(xi,yi)}i=1N,希望在点云附近通过多项式拟合一个平滑函数 f ( x ) f(x) f(x),使得拟合尽可能接近数据点,同时具有一定的平滑性。

拟合函数形式假设为:
f ( x ) = ∑ j = 0 m a j ϕ j ( x ) f(x) = \sum_{j=0}^m a_j \phi_j(x) f(x)=j=0∑majϕj(x)

其中:

  • ϕ j ( x ) \phi_j(x) ϕj(x) 是基函数,例如 { 1 , x , x 2 , ... , x m } \{1, x, x^2, \dots, x^m\} {1,x,x2,...,xm}。
  • a j a_j aj 是需要求解的系数。

加权局部拟合

  1. 局部权重定义
    为了强调拟合的局部性,定义一个加权函数 w ( x − x i ) w(x - x_i) w(x−xi),用来衡量点 x i x_i xi 对拟合中心 x x x 的贡献。通常选择的权重函数具有以下性质:
  • w ( x − x i ) ≥ 0 w(x - x_i) \geq 0 w(x−xi)≥0。

  • w ( x − x i ) w(x - x_i) w(x−xi) 随 ∣ x − x i ∣ |x - x_i| ∣x−xi∣ 增大而减小。

  • 常用的权重函数包括高斯函数:
    w ( x − x i ) = exp ⁡ ( − ( x − x i ) 2 h 2 ) w(x - x_i) = \exp\left(-\frac{(x - x_i)^2}{h^2}\right) w(x−xi)=exp(−h2(x−xi)2)

    其中 h h h 是带宽参数,控制影响范围。

  1. 局部最小二乘目标函数
    对每个拟合中心 x x x,拟合的目标是最小化加权误差平方和:

E ( a 0 , a 1 , ... , a m ) = ∑ i = 1 N w ( x − x i ) ( y i − ∑ j = 0 m a j ϕ j ( x i ) ) 2 E(a_0, a_1, \dots, a_m) = \sum_{i=1}^N w(x - x_i) \left( y_i - \sum_{j=0}^m a_j \phi_j(x_i) \right)^2 E(a0,a1,...,am)=i=1∑Nw(x−xi)(yi−j=0∑majϕj(xi))2


求解过程

1. 展开目标函数

将拟合函数代入目标函数,得到:
E ( a 0 , a 1 , ... , a m ) = ∑ i = 1 N w ( x − x i ) ( y i − a ⊤ ϕ ( x i ) ) 2 E(a_0, a_1, \dots, a_m) = \sum_{i=1}^N w(x - x_i) \left( y_i - \mathbf{a}^\top \boldsymbol{\phi}(x_i) \right)^2 E(a0,a1,...,am)=i=1∑Nw(x−xi)(yi−a⊤ϕ(xi))2

其中:

  • a = [ a 0 , a 1 , ... , a m ] ⊤ \mathbf{a} = [a_0, a_1, \dots, a_m]^\top a=[a0,a1,...,am]⊤ 是系数向量。
  • ϕ ( x i ) = [ ϕ 0 ( x i ) , ϕ 1 ( x i ) , ... , ϕ m ( x i ) ] ⊤ \boldsymbol{\phi}(x_i) = [\phi_0(x_i), \phi_1(x_i), \dots, \phi_m(x_i)]^\top ϕ(xi)=[ϕ0(xi),ϕ1(xi),...,ϕm(xi)]⊤ 是基函数向量。
2. 矩阵形式

将加权误差平方和用矩阵表示:
E ( a ) = ( y − Φ a ) ⊤ W ( y − Φ a ) E(\mathbf{a}) = \left( \mathbf{y} - \mathbf{\Phi} \mathbf{a} \right)^\top \mathbf{W} \left( \mathbf{y} - \mathbf{\Phi} \mathbf{a} \right) E(a)=(y−Φa)⊤W(y−Φa)

其中:

  • y = [ y 1 , y 2 , ... , y N ] ⊤ \mathbf{y} = [y_1, y_2, \dots, y_N]^\top y=[y1,y2,...,yN]⊤ 是数据点的输出值向量。

  • Φ \mathbf{\Phi} Φ 是设计矩阵:
    Φ = [ ϕ 0 ( x 1 ) ϕ 1 ( x 1 ) ⋯ ϕ m ( x 1 ) ϕ 0 ( x 2 ) ϕ 1 ( x 2 ) ⋯ ϕ m ( x 2 ) ⋮ ⋮ ⋱ ⋮ ϕ 0 ( x N ) ϕ 1 ( x N ) ⋯ ϕ m ( x N ) ] \mathbf{\Phi} = \begin{bmatrix} \phi_0(x_1) & \phi_1(x_1) & \cdots & \phi_m(x_1) \\ \phi_0(x_2) & \phi_1(x_2) & \cdots & \phi_m(x_2) \\ \vdots & \vdots & \ddots & \vdots \\ \phi_0(x_N) & \phi_1(x_N) & \cdots & \phi_m(x_N) \end{bmatrix} Φ= ϕ0(x1)ϕ0(x2)⋮ϕ0(xN)ϕ1(x1)ϕ1(x2)⋮ϕ1(xN)⋯⋯⋱⋯ϕm(x1)ϕm(x2)⋮ϕm(xN)

  • W \mathbf{W} W 是对角权重矩阵:
    W = [ w ( x − x 1 ) 0 ⋯ 0 0 w ( x − x 2 ) ⋯ 0 ⋮ ⋮ ⋱ ⋮ 0 0 ⋯ w ( x − x N ) ] \mathbf{W} = \begin{bmatrix} w(x - x_1) & 0 & \cdots & 0 \\ 0 & w(x - x_2) & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & w(x - x_N) \end{bmatrix} W= w(x−x1)0⋮00w(x−x2)⋮0⋯⋯⋱⋯00⋮w(x−xN)

3. 最小化误差

最小化 E ( a ) E(\mathbf{a}) E(a) 对 a \mathbf{a} a 的偏导数:
∂ E ( a ) ∂ a = − 2 Φ ⊤ W ( y − Φ a ) = 0 \frac{\partial E(\mathbf{a})}{\partial \mathbf{a}} = -2 \mathbf{\Phi}^\top \mathbf{W} (\mathbf{y} - \mathbf{\Phi} \mathbf{a}) = 0 ∂a∂E(a)=−2Φ⊤W(y−Φa)=0

解得:
a = ( Φ ⊤ W Φ ) − 1 Φ ⊤ W y \mathbf{a} = (\mathbf{\Phi}^\top \mathbf{W} \mathbf{\Phi})^{-1} \mathbf{\Phi}^\top \mathbf{W} \mathbf{y} a=(Φ⊤WΦ)−1Φ⊤Wy


最终函数表示

将求得的 a \mathbf{a} a 代入 f ( x ) f(x) f(x):
f ( x ) = ϕ ( x ) ⊤ a f(x) = \boldsymbol{\phi}(x)^\top \mathbf{a} f(x)=ϕ(x)⊤a

这里 ϕ ( x ) \boldsymbol{\phi}(x) ϕ(x) 是拟合点 x x x 的基函数值。


特点

  1. 局部性:通过权重函数,强调拟合点附近数据的贡献,忽略远处的点。
  2. 平滑性:通过窗口移动,生成光滑的拟合曲线或曲面。
  3. 灵活性:适用于任意维度数据。
  4. 计算复杂度 :每个拟合点需重新计算 a \mathbf{a} a,代价较高。
相关推荐
苏言の狗1 分钟前
Pytorch中关于Tensor的操作
人工智能·pytorch·python·深度学习·机器学习
黑客Ash11 分钟前
安全算法基础(一)
算法·安全
bastgia44 分钟前
Tokenformer: 下一代Transformer架构
人工智能·机器学习·llm
AI莫大猫1 小时前
(6)YOLOv4算法基本原理以及和YOLOv3 的差异
算法·yolo
taoyong0011 小时前
代码随想录算法训练营第十一天-239.滑动窗口最大值
c++·算法
Uu_05kkq1 小时前
【C语言1】C语言常见概念(总结复习篇)——库函数、ASCII码、转义字符
c语言·数据结构·算法
清梦20202 小时前
经典问题---跳跃游戏II(贪心算法)
算法·游戏·贪心算法
paixiaoxin3 小时前
CV-OCR经典论文解读|An Empirical Study of Scaling Law for OCR/OCR 缩放定律的实证研究
人工智能·深度学习·机器学习·生成对抗网络·计算机视觉·ocr·.net
Dream_Snowar3 小时前
速通Python 第四节——函数
开发语言·python·算法
Altair澳汰尔3 小时前
数据分析和AI丨知识图谱,AI革命中数据集成和模型构建的关键推动者
人工智能·算法·机器学习·数据分析·知识图谱