《近似线性可分支持向量机的原理推导》KKT(Karush-Kuhn-Tucker)条件 公式解析

本文是将文章《近似线性可分支持向量机的原理推导》中的公式单独拿出来做一个详细的解析,便于初学者更好的理解。


公式 9-51 到 9-59 是在近似线性可分支持向量机(SVM)的优化过程中推导出来的 KKT(Karush-Kuhn-Tucker)条件。KKT 条件是求解带约束优化问题的必要条件,通过这些条件,我们可以找到支持向量机的最优解。接下来,我将详细解释这些公式及其作用。

背景

我们从原始问题的拉格朗日函数出发:
L ( w , b , ξ , α , μ ) = 1 2 ∥ w ∥ 2 + C ∑ i = 1 N ξ i − ∑ i = 1 N α i ( y i ( w T x i + b ) − ( 1 − ξ i ) ) − ∑ i = 1 N μ i ξ i L(w, b, \xi, \alpha, \mu) = \frac{1}{2} \|w\|^2 + C \sum_{i=1}^{N} \xi_i - \sum_{i=1}^{N} \alpha_i \left( y_i(w^T x_i + b) - (1 - \xi_i) \right) - \sum_{i=1}^{N} \mu_i \xi_i L(w,b,ξ,α,μ)=21∥w∥2+Ci=1∑Nξi−i=1∑Nαi(yi(wTxi+b)−(1−ξi))−i=1∑Nμiξi

通过对拉格朗日函数对 w w w、 b b b、和 ξ i \xi_i ξi 求偏导数并设为 0,以及利用 KKT 条件,我们可以得到公式 9-51 到 9-59。

公式解释

公式 9-51

∂ L ∂ w = w − ∑ i = 1 N α i y i x i = 0 \frac{\partial L}{\partial w} = w - \sum_{i=1}^{N} \alpha_i y_i x_i = 0 ∂w∂L=w−i=1∑Nαiyixi=0

  • 解释 :对 L L L 关于 w w w 求偏导数并设为 0。
  • 含义 :该公式表明权重向量 w w w 可以表示为一系列样本点的线性组合。换句话说,最优的 w w w 是支持向量(即 α i > 0 \alpha_i > 0 αi>0 的点)乘以对应标签 y i y_i yi 和特征 x i x_i xi 的加权和。
  • 解出 :可以得到 w w w 的表达式:
    w = ∑ i = 1 N α i y i x i w = \sum_{i=1}^{N} \alpha_i y_i x_i w=i=1∑Nαiyixi
公式 9-52

∂ L ∂ b = − ∑ i = 1 N α i y i = 0 \frac{\partial L}{\partial b} = -\sum_{i=1}^{N} \alpha_i y_i = 0 ∂b∂L=−i=1∑Nαiyi=0

  • 解释 :对 L L L 关于 b b b 求偏导数并设为 0。
  • 含义:这个条件确保了所有支持向量的贡献在决策边界上是平衡的。
  • 解出 :可以得到如下约束:
    ∑ i = 1 N α i y i = 0 \sum_{i=1}^{N} \alpha_i y_i = 0 i=1∑Nαiyi=0
公式 9-53

∂ L ∂ ξ i = C − α i − μ i = 0 \frac{\partial L}{\partial \xi_i} = C - \alpha_i - \mu_i = 0 ∂ξi∂L=C−αi−μi=0

  • 解释 :对 L L L 关于 ξ i \xi_i ξi 求偏导数并设为 0。
  • 含义 :这个条件确保惩罚系数 C C C 与拉格朗日乘子 α i \alpha_i αi 和 μ i \mu_i μi 之间的关系。它表明每个样本的 ξ i \xi_i ξi 都要满足这个平衡条件。
  • 解出 :可以得到如下关系:
    α i + μ i = C \alpha_i + \mu_i = C αi+μi=C
公式 9-54(互补松弛条件)

α i ( y i ( w T x i + b ) − 1 + ξ i ) = 0 \alpha_i \left( y_i(w^T x_i + b) - 1 + \xi_i \right) = 0 αi(yi(wTxi+b)−1+ξi)=0

  • 解释:这是 KKT 条件中的互补松弛条件之一。
  • 含义 :如果 α i > 0 \alpha_i > 0 αi>0,那么 y i ( w T x i + b ) − 1 + ξ i = 0 y_i(w^T x_i + b) - 1 + \xi_i = 0 yi(wTxi+b)−1+ξi=0,说明这个点正好落在分类边界上,是一个支持向量。反之,如果 y i ( w T x i + b ) − 1 + ξ i > 0 y_i(w^T x_i + b) - 1 + \xi_i > 0 yi(wTxi+b)−1+ξi>0,则 α i = 0 \alpha_i = 0 αi=0,即这个点不是支持向量。
  • 直观理解 :互补松弛条件确保了只有支持向量的 α i \alpha_i αi 才会对分类边界产生影响。
公式 9-55(互补松弛条件)

μ i ξ i = 0 \mu_i \xi_i = 0 μiξi=0

  • 解释:这是另一个互补松弛条件。
  • 含义 :如果 μ i > 0 \mu_i > 0 μi>0,则 ξ i = 0 \xi_i = 0 ξi=0,这意味着该点严格满足分类边界条件;如果 ξ i > 0 \xi_i > 0 ξi>0,则 μ i = 0 \mu_i = 0 μi=0,即此时允许该点不满足严格的分类边界条件。
  • 直观理解 :该条件确保了只有误分类的点才会有非零的松弛变量 ξ i \xi_i ξi,而那些在间隔内或超出间隔的点的松弛变量 ξ i \xi_i ξi 为 0。
公式 9-56

y i ( w T x i + b ) − 1 + ξ i ≥ 0 y_i(w^T x_i + b) - 1 + \xi_i \geq 0 yi(wTxi+b)−1+ξi≥0

  • 解释:这是分类间隔的约束条件。
  • 含义 :这表明对于每个样本点,模型输出与真实标签 y i y_i yi 的乘积至少要大于等于 1 − ξ i 1 - \xi_i 1−ξi。
  • 直观理解 :这表明在软间隔的情况下,允许有误差(即 ξ i > 0 \xi_i > 0 ξi>0)的样本点。
公式 9-57

ξ i ≥ 0 \xi_i \geq 0 ξi≥0

  • 解释:这是松弛变量的非负约束。
  • 含义 :松弛变量 ξ i \xi_i ξi 是非负的,这意味着我们允许一定程度的误分类或间隔违规,但不允许出现负间隔。
  • 直观理解:保证松弛变量为非负值,以确保松弛变量可以表示样本点与超平面的正确偏差。
公式 9-58

α i ≥ 0 \alpha_i \geq 0 αi≥0

  • 解释 :这是拉格朗日乘子 α i \alpha_i αi 的非负约束。
  • 含义 :该条件确保拉格朗日乘子 α i \alpha_i αi 为非负数,这是对偶优化中的标准条件。
  • 直观理解 :非负的 α i \alpha_i αi 确保支持向量的贡献是向决策边界方向的。
公式 9-59

μ i ≥ 0 \mu_i \geq 0 μi≥0

  • 解释 :这是拉格朗日乘子 μ i \mu_i μi 的非负约束。
  • 含义 :该条件确保了 μ i \mu_i μi 是非负的,它与 ξ i ≥ 0 \xi_i \geq 0 ξi≥0 的约束共同作用,满足互补松弛条件。
  • 直观理解 :非负的 μ i \mu_i μi 确保松弛变量的约束条件满足互补松弛条件,从而满足优化问题的约束条件。

总结

公式 9-51 到 9-59 是近似线性可分支持向量机在对偶优化问题下的 KKT 条件。这些条件包括偏导数设为零的条件、互补松弛条件、以及拉格朗日乘子的非负约束。通过这些条件,可以找到支持向量机的最优解,进而确定分类超平面的位置和形状:

  • 互补松弛条件:定义了哪些点是支持向量,即对分类边界产生影响的点。
  • 偏导数为零的条件 :提供了 w w w 和 b b b 的计算方式。
  • 非负约束条件:确保解的合理性。

这些条件共同作用,确保我们能够找到最优的分类超平面,即最大化分类间隔,并在允许一定误差的情况下优化分类性能。

相关推荐
dwjf3213 分钟前
机器学习(四)-回归模型评估指标
人工智能·机器学习·线性回归
吕小明么8 分钟前
OpenAI o3 “震撼” 发布后回归技术本身的审视与进一步思考
人工智能·深度学习·算法·aigc·agi
算力魔方AIPC1 小时前
Meta重磅发布Llama 3.3 70B:开源AI模型的新里程碑
人工智能·llama
CSBLOG1 小时前
深度学习试题及答案解析(一)
人工智能·深度学习
四口鲸鱼爱吃盐1 小时前
Pytorch | 利用VMI-FGSM针对CIFAR10上的ResNet分类器进行对抗攻击
人工智能·pytorch·python
四口鲸鱼爱吃盐1 小时前
Pytorch | 利用PI-FGSM针对CIFAR10上的ResNet分类器进行对抗攻击
人工智能·pytorch·python
边缘计算社区1 小时前
吉快科技荣膺“金边奖·最佳大模型一体机”,引领AI边缘新时代
人工智能·科技
新智元1 小时前
LeCun 八年前神预言,大模型路线再颠覆?OpenAI 宣告:强化学习取得稳定性突破
人工智能·openai
电子海鸥1 小时前
迁移学习--fasttext概述
人工智能·机器学习·迁移学习
因_果_律1 小时前
亚马逊云科技 re:Invent 2024重磅发布!Amazon Bedrock Data Automation 预览版震撼登场
大数据·人工智能·科技·亚马逊云科技·re invent