线性可分支持向量机的原理推导 9-27拉格朗日乘子和不等式约束关系 公式解析

本文是将文章《线性可分支持向量机的原理推导》中的公式单独拿出来做一个详细的解析,便于初学者更好的理解。


公式 9-27 是支持向量机(SVM)优化过程中 Karush-Kuhn-Tucker (KKT) 条件的其中一项,表示 互补松弛条件(Complementary Slackness Condition)。该条件是拉格朗日对偶理论中的一个核心部分,它反映了优化问题中约束和拉格朗日乘子之间的关系。

公式 9-27 的表达式如下:
α i ∗ ( y i ( w ∗ T x i + b ∗ ) − 1 ) = 0 , i = 1 , 2 , ... , N \alpha_i^* \left( y_i \left( w^{*T} x_i + b^* \right) - 1 \right) = 0, \quad i = 1, 2, \dots, N αi∗(yi(w∗Txi+b∗)−1)=0,i=1,2,...,N

1. 公式的含义

这个公式描述了拉格朗日乘子 α i ∗ \alpha_i^* αi∗ 和不等式约束 y i ( w ∗ T x i + b ∗ ) − 1 y_i (w^{*T} x_i + b^*) - 1 yi(w∗Txi+b∗)−1 之间的关系。具体来说,它表达了以下两种可能情况:

  • 当 α i ∗ > 0 \alpha_i^* > 0 αi∗>0 时,样本 x i x_i xi 必须满足 y i ( w ∗ T x i + b ∗ ) = 1 y_i (w^{*T} x_i + b^*) = 1 yi(w∗Txi+b∗)=1,即样本 x i x_i xi 位于分类超平面的边界上,这些点称为支持向量
  • 当 α i ∗ = 0 \alpha_i^* = 0 αi∗=0 时,样本 x i x_i xi 的分类间隔 y i ( w ∗ T x i + b ∗ ) y_i (w^{*T} x_i + b^*) yi(w∗Txi+b∗) 必须大于 1,也就是说,这些样本离分类超平面较远,它们对分类超平面的定义没有影响。

该公式本质上是 KKT 条件中的互补松弛条件,要求对于每个样本 x i x_i xi,只有当约束 y i ( w ∗ T x i + b ∗ ) = 1 y_i (w^{*T} x_i + b^*) = 1 yi(w∗Txi+b∗)=1 严格成立时,拉格朗日乘子 α i ∗ \alpha_i^* αi∗ 才能大于 0。

2. 推导背景

在 SVM 中,我们的目标是找到一个超平面来最大化分类间隔,同时满足以下约束条件:
y i ( w T x i + b ) ≥ 1 , 对于每个训练样本 i y_i (w^T x_i + b) \geq 1, \quad \text{对于每个训练样本 } i yi(wTxi+b)≥1,对于每个训练样本 i

这个不等式意味着,所有的训练样本 x i x_i xi 必须被正确分类,并且正类样本( y i = 1 y_i = 1 yi=1)必须位于分类超平面一侧的距离至少为 1,负类样本( y i = − 1 y_i = -1 yi=−1)则必须位于另一侧的距离至少为 1。

为了处理这个带有不等式约束的优化问题,SVM 引入了拉格朗日乘子 α i \alpha_i αi,并构造拉格朗日函数:
L ( w , b , α ) = 1 2 ∥ w ∥ 2 − ∑ i = 1 N α i ( y i ( w T x i + b ) − 1 ) L(w, b, \alpha) = \frac{1}{2} \|w\|^2 - \sum_{i=1}^{N} \alpha_i \left( y_i (w^T x_i + b) - 1 \right) L(w,b,α)=21∥w∥2−i=1∑Nαi(yi(wTxi+b)−1)

在最优条件下,KKT 条件要求满足互补松弛条件,即:
α i ∗ ( y i ( w ∗ T x i + b ∗ ) − 1 ) = 0 \alpha_i^* \left( y_i \left( w^{*T} x_i + b^* \right) - 1 \right) = 0 αi∗(yi(w∗Txi+b∗)−1)=0

3. 互补松弛条件的解释

这个条件反映了不等式约束 y i ( w T x i + b ) ≥ 1 y_i (w^T x_i + b) \geq 1 yi(wTxi+b)≥1 和拉格朗日乘子 α i \alpha_i αi 的关系。我们可以把它理解为两种情况的组合:

第一种情况:当 α i ∗ > 0 \alpha_i^* > 0 αi∗>0
  • 互补松弛条件 α i ∗ ( y i ( w ∗ T x i + b ∗ ) − 1 ) = 0 \alpha_i^* \left( y_i (w^{*T} x_i + b^*) - 1 \right) = 0 αi∗(yi(w∗Txi+b∗)−1)=0 要成立时,如果 α i ∗ > 0 \alpha_i^* > 0 αi∗>0,那么 y i ( w ∗ T x i + b ∗ ) − 1 = 0 y_i (w^{*T} x_i + b^*) - 1 = 0 yi(w∗Txi+b∗)−1=0。
  • 这意味着对于那些拉格朗日乘子 α i ∗ > 0 \alpha_i^* > 0 αi∗>0 的样本 x i x_i xi,它们必须严格满足 y i ( w ∗ T x i + b ∗ ) = 1 y_i (w^{*T} x_i + b^*) = 1 yi(w∗Txi+b∗)=1。这些点恰好位于分类超平面的边界上,也就是说,它们是支持向量
第二种情况:当 α i ∗ = 0 \alpha_i^* = 0 αi∗=0
  • 如果 α i ∗ = 0 \alpha_i^* = 0 αi∗=0,那么互补松弛条件自动成立,无论 y i ( w ∗ T x i + b ∗ ) − 1 y_i (w^{*T} x_i + b^*) - 1 yi(w∗Txi+b∗)−1 是否为 0 或更大。
  • 这意味着对于那些不影响超平面的样本(即 α i ∗ = 0 \alpha_i^* = 0 αi∗=0),它们不需要严格位于边界上,可以离分类超平面更远,满足 y i ( w ∗ T x i + b ∗ ) > 1 y_i (w^{*T} x_i + b^*) > 1 yi(w∗Txi+b∗)>1。换句话说,这些点距离分类超平面较远,它们不会影响分类器的构建。

4. 几何解释

几何上,公式 9-27 说明了样本点在 SVM 分类过程中所扮演的不同角色:

  • 支持向量 :这些样本点恰好位于分类超平面的边界上。对于这些点, α i ∗ > 0 \alpha_i^* > 0 αi∗>0,并且它们满足 y i ( w ∗ T x i + b ∗ ) = 1 y_i (w^{*T} x_i + b^*) = 1 yi(w∗Txi+b∗)=1。这些点直接决定了分类超平面的形状和位置。

  • 非支持向量 :这些点的拉格朗日乘子 α i ∗ = 0 \alpha_i^* = 0 αi∗=0,它们不在分类超平面的边界上,距离超平面有一定的距离。对于这些点, y i ( w ∗ T x i + b ∗ ) > 1 y_i (w^{*T} x_i + b^*) > 1 yi(w∗Txi+b∗)>1,它们对分类超平面的定义没有影响。

5. 公式 9-27 的作用

在 SVM 的优化问题中,公式 9-27 起到了筛选支持向量的作用。根据互补松弛条件,只有那些拉格朗日乘子 α i ∗ > 0 \alpha_i^* > 0 αi∗>0 的点会成为支持向量,它们对分类超平面产生影响。而对于 α i ∗ = 0 \alpha_i^* = 0 αi∗=0 的点,它们不会对分类器的最终结果产生影响,因为这些点在分类超平面的外侧,距离超平面较远。

具体作用如下:
  • 确定支持向量 :通过公式 9-27,我们知道只有那些满足 α i ∗ > 0 \alpha_i^* > 0 αi∗>0 且 y i ( w ∗ T x i + b ∗ ) = 1 y_i (w^{*T} x_i + b^*) = 1 yi(w∗Txi+b∗)=1 的点才是支持向量。这些点是决定分类器超平面形状的关键点。
  • 筛选无影响的点 :对于那些 α i ∗ = 0 \alpha_i^* = 0 αi∗=0 的样本点,它们对超平面的构造没有影响,可以认为这些点在优化过程中被"忽略"了。

6. 总结

公式 9-27 是支持向量机(SVM)优化问题中的互补松弛条件,表明了支持向量( α i ∗ > 0 \alpha_i^* > 0 αi∗>0)和非支持向量( α i ∗ = 0 \alpha_i^* = 0 αi∗=0)之间的区别。通过这个公式,我们可以知道哪些样本点会对分类超平面的构造产生影响(支持向量),以及哪些点不会(非支持向量)。互补松弛条件在优化问题中确保了有效约束的合理性。

相关推荐
机器之心16 分钟前
全球十亿级轨迹点驱动,首个轨迹基础大模型来了
人工智能·后端
z千鑫17 分钟前
【人工智能】PyTorch、TensorFlow 和 Keras 全面解析与对比:深度学习框架的终极指南
人工智能·pytorch·深度学习·aigc·tensorflow·keras·codemoss
EterNity_TiMe_17 分钟前
【论文复现】神经网络的公式推导与代码实现
人工智能·python·深度学习·神经网络·数据分析·特征分析
机智的小神仙儿34 分钟前
Query Processing——搜索与推荐系统的核心基础
人工智能·推荐算法
AI_小站40 分钟前
RAG 示例:使用 langchain、Redis、llama.cpp 构建一个 kubernetes 知识库问答
人工智能·程序人生·langchain·kubernetes·llama·知识库·rag
Doker 多克42 分钟前
Spring AI 框架使用的核心概念
人工智能·spring·chatgpt
Guofu_Liao43 分钟前
Llama模型文件介绍
人工智能·llama
思通数科多模态大模型1 小时前
10大核心应用场景,解锁AI检测系统的智能安全之道
人工智能·深度学习·安全·目标检测·计算机视觉·自然语言处理·数据挖掘
数据岛1 小时前
数据集论文:面向深度学习的土地利用场景分类与变化检测
人工智能·深度学习
龙的爹23332 小时前
论文翻译 | RECITATION-AUGMENTED LANGUAGE MODELS
人工智能·语言模型·自然语言处理·prompt·gpu算力