机器学习笔记之优化算法(八)简单认识Wolfe Condition的收敛性证明

机器学习笔记之优化算法------简单认识Wolfe Condition收敛性证明

  • 引言
    • [回顾: Wolfe \text{Wolfe} Wolfe准则](#回顾: Wolfe \text{Wolfe} Wolfe准则)
    • 准备工作
    • [关于 Wolfe \text{Wolfe} Wolfe准则收敛性证明的推导过程](#关于 Wolfe \text{Wolfe} Wolfe准则收敛性证明的推导过程)

引言

上一节介绍了非精确搜索方法------ Wolfe \text{Wolfe} Wolfe准则。本节将简单认识: Wolfe \text{Wolfe} Wolfe准则的收敛性证明。

回顾: Wolfe \text{Wolfe} Wolfe准则

关于先搜索方法 表示如下:
x k + 1 = x k + α k ⋅ P k x_{k+1} = x_k + \alpha_k \cdot \mathcal P_k xk+1=xk+αk⋅Pk

在数值解迭代过程中,当前时刻的迭代 步长结果 α k \alpha_k αk未确定的情况下,将步长设为变量 α \alpha α。在下降方向 P k \mathcal P_k Pk确定的条件下,关于 x k + 1 x_{k+1} xk+1的目标函数结果 f ( x k + 1 ) f(x_{k+1}) f(xk+1)可表示为关于变量 α \alpha α的函数 ϕ ( α ) \phi(\alpha) ϕ(α):
f ( x k + 1 ) = f ( x k + α ⋅ P k ) = ϕ ( α ) f(x_{k+1}) = f(x_k + \alpha \cdot \mathcal P_k) = \phi(\alpha) f(xk+1)=f(xk+α⋅Pk)=ϕ(α)

由于 { f ( x k ) } k = 0 ∞ \{f(x_k)\}{k=0}^{\infty} {f(xk)}k=0∞服从严格的单调性仅是目标函数收敛至最优解 : { f ( x k ) } k = 0 ∞ ⇒ f ∗ \{f(x_k)\}{k=0}^{\infty} \Rightarrow f^* {f(xk)}k=0∞⇒f∗的必要不充分条件;因而需要相比更严格的条件使目标函数收敛至最优解:Armijo \text{Armijo} Armijo准则Glodstein \text{Glodstein} Glodstein准则与 Wolfe \text{Wolfe} Wolfe准则:
Armijo Condition : { ϕ ( α ) < f ( x k ) + C 1 ⋅ [ ∇ f ( x k ) ] T P k ⋅ α C 1 ∈ ( 0 , 1 ) Glodstein Condition : { f ( x k ) + ( 1 − C ) ⋅ [ ∇ f ( x k ) ] T P k ⋅ α ≤ ϕ ( α ) ≤ f ( x k ) + C ⋅ [ ∇ f ( x k ) ] T P k ⋅ α C ∈ ( 0 , 1 2 ) \begin{aligned} & \text{Armijo Condition : } \begin{cases} \phi(\alpha) < f(x_k) + \mathcal C_1 \cdot [\nabla f(x_k)]^T \mathcal P_k \cdot \alpha \\ \quad \\ \mathcal C_1 \in (0,1) \end{cases} \\ & \text{Glodstein Condition : } \begin{cases} f(x_k) + (1 - \mathcal C) \cdot [\nabla f(x_k)]^T \mathcal P_k \cdot \alpha \leq \phi(\alpha) \leq f(x_k) + \mathcal C \cdot [\nabla f(x_k)]^T \mathcal P_k \cdot \alpha \\ \quad \\ \mathcal C \in \begin{aligned}\left(0,\frac{1}{2}\right)\end{aligned} \end{cases} \end{aligned} Armijo Condition : ⎩ ⎨ ⎧ϕ(α)<f(xk)+C1⋅[∇f(xk)]TPk⋅αC1∈(0,1)Glodstein Condition : ⎩ ⎨ ⎧f(xk)+(1−C)⋅[∇f(xk)]TPk⋅α≤ϕ(α)≤f(xk)+C⋅[∇f(xk)]TPk⋅αC∈(0,21)

而 Wolfe \text{Wolfe} Wolfe准则的初衷 是为了处理 Armijo \text{Armijo} Armijo准则与 Goldstein \text{Goldstein} Goldstein准则的共同弊端:仅通过划分边界 ( Armijo ) (\text{Armijo}) (Armijo)或者划分边界构成的范围 ( Glodstein ) (\text{Glodstein}) (Glodstein)对相应的 α \alpha α结果进行筛选,而被选择的 α \alpha α结果是否存在意义 ? ? ? 未知。

基于上述因素, Wlofe \text{Wlofe} Wlofe准则在 Armijo \text{Armijo} Armijo准则的基础上,建立软性 规则以筛选优质的 α \alpha α结果:
其中 ϕ ′ ( α ) = ∂ f ( x k + α ⋅ P k ) ∂ α = [ ∇ f ( x k + α ⋅ P k ) ] T P k \begin{aligned}\phi'(\alpha) = \frac{\partial f(x_k + \alpha \cdot \mathcal P_k)}{\partial \alpha} = \left[\nabla f(x_k + \alpha \cdot \mathcal P_k)\right]^T \mathcal P_k \end{aligned} ϕ′(α)=∂α∂f(xk+α⋅Pk)=[∇f(xk+α⋅Pk)]TPk。
{ ϕ ( α ) ≤ f ( x k ) + C 1 ⋅ [ ∇ f ( x k ) ] T P k ⋅ α ϕ ′ ( α ) ≥ C 2 ⋅ [ ∇ f ( x k ) ] T P k C 1 ∈ ( 0 , 1 ) C 2 ∈ ( C 1 , 1 ) \begin{cases} \phi(\alpha) \leq f(x_k) +\mathcal C_1 \cdot [\nabla f(x_k)]^T \mathcal P_k \cdot \alpha \\ \phi'(\alpha) \geq \mathcal C_2 \cdot [\nabla f(x_k)]^T \mathcal P_k \\ \mathcal C_1 \in (0,1) \\ \mathcal C_2 \in (\mathcal C_1,1) \end{cases} ⎩ ⎨ ⎧ϕ(α)≤f(xk)+C1⋅[∇f(xk)]TPk⋅αϕ′(α)≥C2⋅[∇f(xk)]TPkC1∈(0,1)C2∈(C1,1)

本节以 Wolfe \text{Wolfe} Wolfe准则 为例,简单介绍该准则的收敛性证明。

准备工作

推导条件介绍

  • 关于目标函数优化的终极目标: min ⁡ X ∈ R n f ( X ) \mathop{\min}\limits_{\mathcal X \in \mathbb R^n} f(\mathcal X) X∈Rnminf(X),因而对于目标函数 f ( X ) f(\mathcal X) f(X),需要满足:向下有界,并且在定义域内连续可微
    这属于函数自身的性质,在迭代过程中不能无限地小下去。

  • 关于 f ( X ) f(\mathcal X) f(X)的梯度函数 ∇ f ( X ) \nabla f(\mathcal X) ∇f(X),需要在定义域内满足利普希茨连续 ( Lipschitz Continuity ) (\text{Lipschitz Continuity}) (Lipschitz Continuity)。对应数学符号表示如下:
    其中 L \mathcal L L是一个常数。
    ∀ x , x ^ ∈ R n , ∃ L : s . t . ∣ ∣ ∇ f ( x ) − ∇ f ( x ^ ) ∣ ∣ ≤ L ⋅ ∣ ∣ x − x ^ ∣ ∣ \forall x,\hat x \in \mathbb R^n, \exist \mathcal L :\quad s.t. ||\nabla f(x) - \nabla f(\hat x)|| \leq \mathcal L \cdot ||x - \hat x|| ∀x,x^∈Rn,∃L:s.t.∣∣∇f(x)−∇f(x^)∣∣≤L⋅∣∣x−x^∣∣

    如果一个普通函数 G ( x ) \mathcal G(x) G(x)满足利普希兹连续,可以将上述描述使用 G ( x ) \mathcal G(x) G(x)进行替换,并进行简单变换:
    ∣ ∣ G ( x ) − G ( x ^ ) ∣ ∣ ≤ L ⋅ ∣ ∣ x − x ^ ∣ ∣ ⇒ ∣ ∣ G ( x ) − G ( x ^ ) x − x ^ ∣ ∣ ≤ L ||\mathcal G(x) - \mathcal G(\hat x)|| \leq \mathcal L \cdot ||x - \hat x|| \Rightarrow \left|\left|\frac{\mathcal G(x) - \mathcal G(\hat x)}{x - \hat x}\right|\right| \leq \mathcal L ∣∣G(x)−G(x^)∣∣≤L⋅∣∣x−x^∣∣⇒ x−x^G(x)−G(x^) ≤L

    关于小于号左侧的式子格式: ∣ ∣ G ( x ) − G ( x ^ ) x − x ^ ∣ ∣ \begin{aligned}\left|\left|\frac{\mathcal G(x) - \mathcal G(\hat x)}{x - \hat x}\right|\right|\end{aligned} x−x^G(x)−G(x^) ,根据拉格朗日中值定理,可将该式表示为如下形式:
    ∃ ξ ∈ ( x , x ^ ) ⇒ ∣ ∣ G ( x ) − G ( x ^ ) x − x ^ ∣ ∣ = G ′ ( ξ ) \exist \xi \in (x,\hat x) \Rightarrow \begin{aligned}\left|\left|\frac{\mathcal G(x) - \mathcal G(\hat x)}{x - \hat x}\right|\right|\end{aligned} = \mathcal G'(\xi) ∃ξ∈(x,x^)⇒ x−x^G(x)−G(x^) =G′(ξ)

    从而将利普希兹连续描述为如下形式:
    ∃ ξ ∈ ( x , x ^ ) ⇒ ∣ ∣ G ′ ( ξ ) ∣ ∣ ≤ L \exist \xi \in (x,\hat x) \Rightarrow ||\mathcal G'(\xi)|| \leq \mathcal L ∃ξ∈(x,x^)⇒∣∣G′(ξ)∣∣≤L

    这意味着(不严谨):关于函数 G ( x ) \mathcal G(x) G(x)的一阶导函数 G ′ ( x ) \mathcal G'(x) G′(x)存在上界 L \mathcal L L。回到条件中,关于 ∇ f ( X ) \nabla f(\mathcal X) ∇f(X)服从利普希兹连续 可理解为:对目标函数的二阶梯度结果进行约束:
    ∂ ∇ f ( X ) ∂ X ≤ L \begin{aligned}\frac{\partial \nabla f(\mathcal X)}{\partial \mathcal X}\end{aligned} \leq \mathcal L ∂X∂∇f(X)≤L

    根据二阶梯度的几何意义 ,该条件本质上是对目标函数 f ( X ) f(\mathcal X) f(X)中斜率的变化量进行约束。关于不满足利普希兹连续的函数示例: f ( x ) = x 2 f(x) = x^2 f(x)=x2。对应函数图像 表示如下:

    关于该函数的一阶导函数 ∂ f ∂ x = 2 x \begin{aligned}\frac{\partial f}{\partial x} = 2x\end{aligned} ∂x∂f=2x,是一个关于 x x x的一次函数 ,在定义域 x ∈ R x \in \mathbb R x∈R中,其并不受某常数 L \mathcal L L的约束。
    x ⇒ ∞ x \Rightarrow \infty x⇒∞时,对应的 ∂ f ∂ x ⇒ ∞ \begin{aligned}\frac{\partial f}{\partial x} \Rightarrow \infty \end{aligned} ∂x∂f⇒∞。

    再如: f ( x ) = 1 x \begin{aligned}f(x) = \frac{1}{x}\end{aligned} f(x)=x1。对应函数图像 表示如下:

    同理,关于该函数的一阶导函数 ∂ f ∂ x = − 1 x 2 \begin{aligned}\frac{\partial f}{\partial x} = -\frac{1}{x^2}\end{aligned} ∂x∂f=−x21,在其定义域 x > 0 x > 0 x>0中,其同样不受某常数 L \mathcal L L的约束。
    x ⇒ 0 x \Rightarrow 0 x⇒0时,对应的 ∂ f ∂ x = − ∞ \begin{aligned}\frac{\partial f}{\partial x} = -\infty\end{aligned} ∂x∂f=−∞。

    可以看出:上述两个例子在其对应的定义域内均是连续 的,但它们不满足利普希兹连续。也就是说:利普希兹连续的条件更强

    关于连续相关概念按照条件强度 对比表示为:连续 < < < 一致连续 < < < 利普希兹连续(利普希兹条件)。

    • 上述条件强度可理解为:
      若某函数在其定义域内满足利普希兹连续 ,那么该函数一定满足一致连续连续 ,反之不行;
      同理,若某函数在其定义域内满足一致连续 ,那么该函数一定满足连续,反之不行。
    • 其中一致连续连续之间的区别可描述为:连续仅要求函数在其定义域内没有断点或者跳跃的情况;而一致连续在没有断点或者跳跃的基础上,还需要满足:函数 f ( ⋅ ) f(\cdot) f(⋅)在定义域内任意的两个点 x 、 y x、y x、y,如果 x x x与 y y y充分接近时,对应的 f ( x ) f(x) f(x)与 f ( y ) f(y) f(y)也要充分接近。很明显,上例中的 f ( x ) = 1 x \begin{aligned}f(x) = \frac{1}{x}\end{aligned} f(x)=x1就不是一致连续:首先 f ( x ) f(x) f(x)在其定义域 ( 0 , + ∞ ) (0,+\infty) (0,+∞)中连续 ,但如果选择无限靠近 0 0 0的两个比较接近的点,它们的函数值并不充分接近 ( ∞ ) (\infty) (∞)。
  • 条件 3 3 3: P k \mathcal P_k Pk是下降方向 ( Descent Direction ) (\text{Descent Direction}) (Descent Direction)。
    这里使用的是更加泛化的'下降方向',而不仅仅是最速下降方向。其在非精确搜索方法中被确定下的。关于下降方向详见线搜索方法------精确搜索
    P k \mathcal P_k Pk作为下降方向 ,必然有:
    − [ ∇ f ( x k ) ] T P k = ∣ ∣ ∇ f ( x k ) ∣ ∣ ⋅ ∣ P k ∣ ∣ cos ⁡ θ k > 0 - [\nabla f(x_k)]^T \mathcal P_k = ||\nabla f(x_k)|| \cdot |\mathcal P_k|| \cos \theta_k> 0 −[∇f(xk)]TPk=∣∣∇f(xk)∣∣⋅∣Pk∣∣cosθk>0

    其中 θ k \theta_k θk是负梯度方向 − ∇ f ( x k ) -\nabla f(x_k) −∇f(xk)与下降方向 P k \mathcal P_k Pk之间的夹角 ,因而该夹角的范围必然在 ( − π 2 , π 2 ) \begin{aligned}\left(-\frac{\pi}{2},\frac{\pi}{2}\right)\end{aligned} (−2π,2π)之间。也就是说: cos ⁡ θ k > 0 \cos \theta_k >0 cosθk>0恒成立:
    也可以理解为 − ∇ f ( x k ) -\nabla f(x_k) −∇f(xk) P k \mathcal P_k Pk两者之间的夹角是锐角(没有先后顺序),对应的范围是 ( 0 , π 2 ) \begin{aligned}\left(0,\frac{\pi}{2}\right)\end{aligned} (0,2π)
    cos ⁡ θ k = − [ ∇ f ( x k ) ] T P k ∣ ∣ ∇ f ( x k ) ∣ ∣ ⋅ ∣ ∣ P k ∣ ∣ > 0 \begin{aligned} \cos \theta_k = \frac{-[\nabla f(x_k)]^T \mathcal P_k}{||\nabla f(x_k)||\cdot ||\mathcal P_k||} > 0 \end{aligned} cosθk=∣∣∇f(xk)∣∣⋅∣∣Pk∣∣−[∇f(xk)]TPk>0

  • 迭代过程中的最优步长 α k ( k = 1 , 2 , 3 , ⋯   ) \alpha_k(k=1,2,3,\cdots) αk(k=1,2,3,⋯)满足 Wolfe \text{Wolfe} Wolfe准则:
    该条件不再赘述。
    { f ( x k + 1 ) < f ( x k ) + C 1 ⋅ [ ∇ f ( x k ) ] T P k ⋅ α k [ ∇ f ( x k + 1 ) ] T P k ≥ C 2 ⋅ [ ∇ f ( x k ) ] T P k C 1 ∈ ( 0 , 1 ) C 2 ∈ ( C 1 , 1 ) \begin{cases} f(x_{k+1}) < f(x_k) + \mathcal C_1 \cdot [\nabla f(x_k)]^T \mathcal P_k \cdot \alpha_k \\ [\nabla f(x_{k+1})]^T \mathcal P_k \geq \mathcal C_2 \cdot [\nabla f(x_k)]^T \mathcal P_k \\ \mathcal C_1 \in (0,1) \\ \mathcal C_2 \in (\mathcal C_1,1) \end{cases} ⎩ ⎨ ⎧f(xk+1)<f(xk)+C1⋅[∇f(xk)]TPk⋅αk[∇f(xk+1)]TPk≥C2⋅[∇f(xk)]TPkC1∈(0,1)C2∈(C1,1)

推导结论介绍

关于最终需要证明的收敛性 ,自然是数值解序列 { x k } k = 0 ∞ \{x_k\}{k=0}^{\infty} {xk}k=0∞对应的目标函数结果 { f ( x k ) } k = 0 ∞ \{f(x_k)\}{k=0}^{\infty} {f(xk)}k=0∞收敛到某最优解 f ∗ f^* f∗:
{ f ( x k ) } k = 0 ∞ ⇒ f ∗ \{f(x_k)\}_{k=0}^{\infty} \Rightarrow f^* {f(xk)}k=0∞⇒f∗

如果从梯度的角度观察,关于数值解序列对应的目标函数梯度 结果 { ∇ f ( x k ) } k = 0 ∞ \{\nabla f(x_k)\}{k=0}^{\infty} {∇f(xk)}k=0∞收敛到 0 0 0即可:
常数函数对应的梯度范数就是 0 0 0。
lim ⁡ k ⇒ + ∞ ∣ ∣ ∇ f ( x k ) ∣ ∣ = 0 \mathop{\lim}\limits
{k \Rightarrow + \infty} ||\nabla f(x_k)|| = 0 k⇒+∞lim∣∣∇f(xk)∣∣=0

根据上面关于 θ k \theta_k θk的描述,将其控制 为:

cos ⁡ θ k \] 2 ≥ η \[\\cos \\theta_k\]\^2 \\geq \\eta \[cosθk\]2≥η 其中 η \\eta η表示一个 \> 0 \> 0 \>0的小的常数。基于此,关于 ∑ k = 0 ∞ \[ cos ⁡ θ k \] 2 \\begin{aligned}\\sum_{k=0}\^{\\infty} \[\\cos \\theta_k\]\^2\\end{aligned} k=0∑∞\[cosθk\]2的结果必定是**发散**的。也就是说: + ∞ +\\infty +∞`个` \> 0 \>0 \>0`的较小常数相加必然还是` + ∞ +\\infty +∞。 ∑ k = 0 + ∞ \[ cos ⁡ θ k \] 2 = + ∞ \\sum_{k=0}\^{+\\infty} \[\\cos \\theta_k\]\^2 = +\\infty k=0∑+∞\[cosθk\]2=+∞ 如果将**推导结论** 设置为如下形式: ∑ k = 0 + ∞ \[ cos ⁡ θ k \] 2 ⋅ ∣ ∣ ∇ f ( x k ) ∣ ∣ 2 \< + ∞ \\sum_{k=0}\^{+\\infty} \[\\cos \\theta_k\]\^2 \\cdot \|\|\\nabla f(x_k)\|\|\^2 \< +\\infty k=0∑+∞\[cosθk\]2⋅∣∣∇f(xk)∣∣2\<+∞ 那么该式子必然等价于: `之所以等价是因为上式中的项` ∑ k = 0 + ∞ \[ cos ⁡ θ k \] 2 ⋅ ∣ ∣ ∇ f ( x k ) ∣ ∣ 2 \\sum_{k=0}\^{+\\infty} \[\\cos \\theta_k\]\^2 \\cdot \|\|\\nabla f(x_k)\|\|\^2 ∑k=0+∞\[cosθk\]2⋅∣∣∇f(xk)∣∣2`与关于` cos ⁡ θ k \\cos \\theta_k cosθk`的项` ∑ k = 0 + ∞ \[ cos ⁡ θ k \] 2 \\sum_{k=0}\^{+\\infty} \[\\cos \\theta_k\]\^2 ∑k=0+∞\[cosθk\]2`相矛盾。这只有一种解释:` * `随着` k k k`值的增加,使得` lim ⁡ k ⇒ + ∞ ∣ ∣ ∇ f ( x k ) ∣ ∣ = 0 \\mathop{\\lim}\\limits_{k \\Rightarrow +\\infty} \|\|\\nabla f(x_k)\|\| = 0 k⇒+∞lim∣∣∇f(xk)∣∣=0; * `从而使` lim ⁡ k ⇒ + ∞ ∣ ∣ ∇ f ( x k ) ∣ ∣ 2 = 0 \\mathop{\\lim}\\limits_{k \\Rightarrow +\\infty} \|\|\\nabla f(x_k)\|\|\^2 = 0 k⇒+∞lim∣∣∇f(xk)∣∣2=0; * `从而使` lim ⁡ k ⇒ + ∞ \[ cos ⁡ θ k \] 2 ⋅ ∣ ∣ ∇ f ( x k ) ∣ ∣ 2 \< lim ⁡ k ⇒ + ∞ \[ cos ⁡ θ k \] 2 = η \\mathop{\\lim}\\limits_{k \\Rightarrow +\\infty}\[\\cos \\theta_k\]\^2 \\cdot \|\|\\nabla f(x_k)\|\|\^2 \< \\mathop{\\lim}\\limits_{k \\Rightarrow +\\infty} \[\\cos \\theta_k\]\^2 = \\eta k⇒+∞lim\[cosθk\]2⋅∣∣∇f(xk)∣∣2\ 0 \>0 \>0`的值。` L ⋅ α k ⋅ ∣ ∣ P k ∣ ∣ 2 ≥ ( C 2 − 1 ) ⋅ \[ ∇ f ( x k ) \] T P k \\mathcal L \\cdot \\alpha_k \\cdot \|\|\\mathcal P_k\|\|\^2 \\geq (\\mathcal C_2 -1) \\cdot \[\\nabla f(x_k)\]\^T \\mathcal P_k L⋅αk⋅∣∣Pk∣∣2≥(C2−1)⋅\[∇f(xk)\]TPk 将 L , ∣ ∣ P k ∣ ∣ 2 \\mathcal L,\|\|\\mathcal P_k\|\|\^2 L,∣∣Pk∣∣2移到大于等于号右侧,符号不发生变化: α k ≥ C 2 − 1 L ⋅ \[ ∇ f ( x k ) \] T P k ∣ ∣ P k ∣ ∣ 2 \\alpha_k \\geq \\frac{\\mathcal C_2 - 1}{\\mathcal L} \\cdot \\frac{\[\\nabla f(x_k)\]\^T \\mathcal P_k}{\|\|\\mathcal P_k\|\|\^2} αk≥LC2−1⋅∣∣Pk∣∣2\[∇f(xk)\]TPk * 至此,将上式与 Wolfe \\text{Wolfe} Wolfe准则的第一项**关联起来** : `由于` C 1 ⋅ \[ ∇ f ( x k ) \] T P k \< 0 \\mathcal C_1 \\cdot \[\\nabla f(x_k)\]\^T \\mathcal P_k \< 0 C1⋅\[∇f(xk)\]TPk\<0`那么将上式代入,必然有:` `就是'负的不那么厉害了~'` C 1 ⋅ \[ ∇ f ( x k ) \] T P k ⋅ ( C 2 − 1 L ⋅ \[ ∇ f ( x k ) \] T P k ∣ ∣ P k ∣ ∣ 2 ) ≥ C 1 ⋅ \[ ∇ f ( x k ) \] T P k ⋅ α k \\mathcal C_1 \\cdot \[\\nabla f(x_k)\]\^T \\mathcal P_k \\cdot \\left(\\frac{\\mathcal C_2 - 1}{\\mathcal L} \\cdot \\frac{\[\\nabla f(x_k)\]\^T \\mathcal P_k}{\|\|\\mathcal P_k\|\|\^2}\\right) \\geq \\mathcal C_1 \\cdot \[\\nabla f(x_k)\]\^T \\mathcal P_k \\cdot \\alpha_k C1⋅\[∇f(xk)\]TPk⋅(LC2−1⋅∣∣Pk∣∣2\[∇f(xk)\]TPk)≥C1⋅\[∇f(xk)\]TPk⋅αk 从而有: f ( x k + 1 ) ≤ f ( x k ) + C 1 ⋅ \[ ∇ f ( x k ) \] T P k ⋅ ( C 2 − 1 L ⋅ \[ ∇ f ( x k ) \] T P k ∣ ∣ P k ∣ ∣ 2 ) f(x_{k+1}) \\leq f(x_k) + \\mathcal C_1 \\cdot \[\\nabla f(x_k)\]\^T \\mathcal P_k \\cdot \\left(\\frac{\\mathcal C_2 - 1}{\\mathcal L} \\cdot \\frac{\[\\nabla f(x_k)\]\^T \\mathcal P_k}{\|\|\\mathcal P_k\|\|\^2}\\right) f(xk+1)≤f(xk)+C1⋅\[∇f(xk)\]TPk⋅(LC2−1⋅∣∣Pk∣∣2\[∇f(xk)\]TPk) 观察小于等于号右侧后一项:将其描述成分式形式,会包含一个关于 \[ ∇ f ( x k ) \] T P k \[\\nabla f(x_k)\]\^T \\mathcal P_k \[∇f(xk)\]TPk的平方项,因此使用 \[ ∇ f ( x k ) \] T P k = − ∣ ∣ ∇ f ( x k ) ∣ ∣ ⋅ ∣ ∣ P k ∣ ∣ ⋅ cos ⁡ θ k \[\\nabla f(x_k)\]\^T \\mathcal P_k = -\|\|\\nabla f(x_k)\|\| \\cdot \|\|\\mathcal P_k\|\| \\cdot \\cos \\theta_k \[∇f(xk)\]TPk=−∣∣∇f(xk)∣∣⋅∣∣Pk∣∣⋅cosθk进行替换: * `其中负号消掉了;` * ∣ ∣ P k ∣ ∣ 2 \|\|\\mathcal P_k\|\|\^2 ∣∣Pk∣∣2`消掉了。` f ( x k + 1 ) ≤ f ( x k ) + C 1 ⋅ ( C 2 − 1 ) L ⋅ ∣ ∣ ∇ f ( x k ) ∣ ∣ 2 ⋅ ∣ ∣ P k ∣ ∣ 2 ⋅ \[ cos ⁡ θ k \] 2 ∣ ∣ P k ∣ ∣ 2 = f ( x k ) + C 1 ⋅ ( C 2 − 1 ) L ∣ ∣ ∇ f ( x k ) ∣ ∣ 2 ⋅ \[ cos ⁡ θ k \] 2 \\begin{aligned} f(x_{k+1}) \& \\leq f(x_k) + \\frac{\\mathcal C_1 \\cdot (\\mathcal C_2 - 1)}{\\mathcal L} \\cdot \\frac{\|\|\\nabla f(x_k)\|\|\^2 \\cdot \|\|\\mathcal P_k\|\|\^2 \\cdot \[\\cos \\theta_k\]\^2}{\|\|\\mathcal P_k\|\|\^2} \\\\ \& = f(x_k) + \\frac{\\mathcal C_1 \\cdot (\\mathcal C_2 - 1)}{\\mathcal L} \|\|\\nabla f(x_k)\|\|\^2 \\cdot \[\\cos \\theta_k\]\^2 \\end{aligned} f(xk+1)≤f(xk)+LC1⋅(C2−1)⋅∣∣Pk∣∣2∣∣∇f(xk)∣∣2⋅∣∣Pk∣∣2⋅\[cosθk\]2=f(xk)+LC1⋅(C2−1)∣∣∇f(xk)∣∣2⋅\[cosθk\]2 此时得到一个新的关于 { f ( x k ) } k = 0 ∞ \\{f(x_{k})\\}_{k=0}\^{\\infty} {f(xk)}k=0∞的递推式。从而可以得到 f ( x k + 1 ) f(x_{k+1}) f(xk+1)与 f ( x 0 ) f(x_0) f(x0)之间的关联关系: * `相当于将每一次迭代中间结果累加。` * `将` C 1 ⋅ ( C 2 − 1 ) L ∣ ∣ ∇ f ( x k ) ∣ ∣ 2 ⋅ \[ cos ⁡ θ k \] 2 \\begin{aligned}\\frac{\\mathcal C_1 \\cdot (\\mathcal C_2 - 1)}{\\mathcal L} \|\|\\nabla f(x_k)\|\|\^2 \\cdot \[\\cos \\theta_k\]\^2\\end{aligned} LC1⋅(C2−1)∣∣∇f(xk)∣∣2⋅\[cosθk\]2`记作` I k \\mathcal I_k Ik。 * `展开过程中由于` C 1 ⋅ ( C 2 − 1 ) L \< 0 \\begin{aligned}\\frac{\\mathcal C_1 \\cdot (\\mathcal C_2 - 1)}{\\mathcal L} \< 0\\end{aligned} LC1⋅(C2−1)\<0`是一个常数,直接提出即可。` f ( x k + 1 ) ≤ f ( x k ) + I k ≤ f ( x k − 1 ) + I k − 1 + I k ≤ ⋯ ≤ f ( x 0 ) + C 1 ⋅ ( C 2 − 1 ) L ∑ j = 0 k I j = f ( x 0 ) + C 1 ⋅ ( C 2 − 1 ) L ∑ j = 0 k ∣ ∣ ∇ f ( x j ) ∣ ∣ 2 ⋅ \[ cos ⁡ θ j \] 2 \\begin{aligned} f(x_{k+1}) \& \\leq f(x_k) + \\mathcal I_k \\\\ \& \\leq f(x_{k-1}) + \\mathcal I_{k-1} + \\mathcal I_k \\\\ \& \\leq \\cdots \\\\ \& \\leq f(x_0) + \\frac{\\mathcal C_1 \\cdot(\\mathcal C_2 - 1)}{\\mathcal L} \\sum_{j=0}\^{k} \\mathcal I_j \\\\ \& = f(x_0) + \\frac{\\mathcal C_1 \\cdot (\\mathcal C_2 - 1)}{\\mathcal L} \\sum_{j=0}\^k \|\|\\nabla f(x_j)\|\|\^2 \\cdot \[\\cos \\theta_j\]\^2 \\end{aligned} f(xk+1)≤f(xk)+Ik≤f(xk−1)+Ik−1+Ik≤⋯≤f(x0)+LC1⋅(C2−1)j=0∑kIj=f(x0)+LC1⋅(C2−1)j=0∑k∣∣∇f(xj)∣∣2⋅\[cosθj\]2 * 观察上式,由于目标函数 f ( ⋅ ) f(\\cdot) f(⋅)是向下有界的,这意味着:从 f ( x 0 ) f(x_0) f(x0)开始迭代的过程中,每一次迭代减少的**程度**: `因为描述迭代过程中减小的`幅度`,那么` C 1 ⋅ ( C 2 − 1 ) L \\begin{aligned}\\frac{\\mathcal C_1 \\cdot (\\mathcal C_2 - 1)}{\\mathcal L}\\end{aligned} LC1⋅(C2−1)`的负号就消掉了,而对应数值部分作为常数不会对极限产生影响,因而整个项都可以被忽略掉。` ∣ f ( x j + 1 ) − f ( x j ) ∣ \< ∞ j ∈ { 0 , 1 , 2 , 3 , ⋯   } \|f(x_{j+1}) - f(x_j)\| \< \\infty \\quad j \\in \\{0,1,2,3,\\cdots\\} ∣f(xj+1)−f(xj)∣\<∞j∈{0,1,2,3,⋯} 恒成立。因为`优化目标是` min ⁡ X ∈ R n f ( X ) \\mathop{\\min}\\limits_{\\mathcal X \\in \\mathbb R\^n} f(\\mathcal X) X∈Rnminf(X)`,而不是让这个迭代结果一直无限地小下去。` 从而当 j → ∞ j \\to \\infty j→∞时,由于迭代的 j j j项中每一项均 \< ∞ \< \\infty \<∞,那么最终的**累加结果** 必然也 \< ∞ \< \\infty \<∞: lim ⁡ k ⇒ ∞ ∑ j = 0 k ∣ ∣ ∇ f ( x j ) ∣ ∣ 2 ⋅ \[ cos ⁡ θ j \] 2 \< ∞ \\mathop{\\lim}\\limits_{k \\Rightarrow \\infty} \\sum_{j=0}\^{k} \|\|\\nabla f(x_j)\|\|\^2 \\cdot \[\\cos \\theta_j\]\^2 \< \\infty k⇒∞limj=0∑k∣∣∇f(xj)∣∣2⋅\[cosθj\]2\<∞ 整理可得: ∑ j = 0 ∞ ∣ ∣ ∇ f ( x j ) ∣ ∣ 2 ⋅ \[ cos ⁡ θ j \] 2 \< ∞ \\sum_{j=0}\^{\\infty}\|\|\\nabla f(x_j)\|\|\^2 \\cdot \[\\cos \\theta_j\]\^2 \< \\infty j=0∑∞∣∣∇f(xj)∣∣2⋅\[cosθj\]2\<∞ 证毕。 相关参考: [【优化算法】线搜索方法-收敛性证明](https://www.bilibili.com/video/BV1Mh411P7VY/?spm_id_from=333.999.0.0&vd_source=ee3db26455f240fbeec8f8602f920420) [Lagrange's Mean Value Theorem - 拉格朗日中值定理](https://blog.csdn.net/chengyq116/article/details/104974927)

相关推荐
牛哥带你学代码1 小时前
计算机视觉全流程(基础知识)
人工智能·机器学习
Y200309163 小时前
支持向量机核心知识总结
算法·机器学习·支持向量机
nnerddboy3 小时前
预测模型及超参数:1.传统机器学习:SVR与KNN
人工智能·机器学习
春末的南方城市3 小时前
统一虚拟试穿框架OmniTry:突破服装局限,实现多品类可穿戴物品虚拟试穿无蒙版新跨越。
人工智能·深度学习·机器学习·计算机视觉·aigc
无风听海4 小时前
线性代数之深入理解旋转矩阵
线性代数·机器学习·矩阵·旋转矩阵
悠哉悠哉愿意4 小时前
【机器学习学习笔记】机器学习引言
笔记·学习·机器学习
nnerddboy6 小时前
预测模型及超参数:2.传统机器学习:PLS及其改进
人工智能·机器学习
钢铁男儿6 小时前
PyTorch 机器学习基础(机器学习一般流程)
人工智能·pytorch·机器学习
木头左7 小时前
利用机器学习优化Backtrader策略原理与实践
人工智能·机器学习
boooo_hhh17 小时前
第41周——人脸图像生成
机器学习