线性可分支持向量机的原理推导 9-27拉格朗日乘子和不等式约束关系 公式解析

本文是将文章《线性可分支持向量机的原理推导》中的公式单独拿出来做一个详细的解析,便于初学者更好的理解。


公式 9-27 是支持向量机(SVM)优化过程中 Karush-Kuhn-Tucker (KKT) 条件的其中一项,表示 互补松弛条件(Complementary Slackness Condition)。该条件是拉格朗日对偶理论中的一个核心部分,它反映了优化问题中约束和拉格朗日乘子之间的关系。

公式 9-27 的表达式如下:
α i ∗ ( y i ( w ∗ T x i + b ∗ ) − 1 ) = 0 , i = 1 , 2 , ... , N \alpha_i^* \left( y_i \left( w^{*T} x_i + b^* \right) - 1 \right) = 0, \quad i = 1, 2, \dots, N αi∗(yi(w∗Txi+b∗)−1)=0,i=1,2,...,N

1. 公式的含义

这个公式描述了拉格朗日乘子 α i ∗ \alpha_i^* αi∗ 和不等式约束 y i ( w ∗ T x i + b ∗ ) − 1 y_i (w^{*T} x_i + b^*) - 1 yi(w∗Txi+b∗)−1 之间的关系。具体来说,它表达了以下两种可能情况:

  • 当 α i ∗ > 0 \alpha_i^* > 0 αi∗>0 时,样本 x i x_i xi 必须满足 y i ( w ∗ T x i + b ∗ ) = 1 y_i (w^{*T} x_i + b^*) = 1 yi(w∗Txi+b∗)=1,即样本 x i x_i xi 位于分类超平面的边界上,这些点称为支持向量
  • 当 α i ∗ = 0 \alpha_i^* = 0 αi∗=0 时,样本 x i x_i xi 的分类间隔 y i ( w ∗ T x i + b ∗ ) y_i (w^{*T} x_i + b^*) yi(w∗Txi+b∗) 必须大于 1,也就是说,这些样本离分类超平面较远,它们对分类超平面的定义没有影响。

该公式本质上是 KKT 条件中的互补松弛条件,要求对于每个样本 x i x_i xi,只有当约束 y i ( w ∗ T x i + b ∗ ) = 1 y_i (w^{*T} x_i + b^*) = 1 yi(w∗Txi+b∗)=1 严格成立时,拉格朗日乘子 α i ∗ \alpha_i^* αi∗ 才能大于 0。

2. 推导背景

在 SVM 中,我们的目标是找到一个超平面来最大化分类间隔,同时满足以下约束条件:
y i ( w T x i + b ) ≥ 1 , 对于每个训练样本 i y_i (w^T x_i + b) \geq 1, \quad \text{对于每个训练样本 } i yi(wTxi+b)≥1,对于每个训练样本 i

这个不等式意味着,所有的训练样本 x i x_i xi 必须被正确分类,并且正类样本( y i = 1 y_i = 1 yi=1)必须位于分类超平面一侧的距离至少为 1,负类样本( y i = − 1 y_i = -1 yi=−1)则必须位于另一侧的距离至少为 1。

为了处理这个带有不等式约束的优化问题,SVM 引入了拉格朗日乘子 α i \alpha_i αi,并构造拉格朗日函数:
L ( w , b , α ) = 1 2 ∥ w ∥ 2 − ∑ i = 1 N α i ( y i ( w T x i + b ) − 1 ) L(w, b, \alpha) = \frac{1}{2} \|w\|^2 - \sum_{i=1}^{N} \alpha_i \left( y_i (w^T x_i + b) - 1 \right) L(w,b,α)=21∥w∥2−i=1∑Nαi(yi(wTxi+b)−1)

在最优条件下,KKT 条件要求满足互补松弛条件,即:
α i ∗ ( y i ( w ∗ T x i + b ∗ ) − 1 ) = 0 \alpha_i^* \left( y_i \left( w^{*T} x_i + b^* \right) - 1 \right) = 0 αi∗(yi(w∗Txi+b∗)−1)=0

3. 互补松弛条件的解释

这个条件反映了不等式约束 y i ( w T x i + b ) ≥ 1 y_i (w^T x_i + b) \geq 1 yi(wTxi+b)≥1 和拉格朗日乘子 α i \alpha_i αi 的关系。我们可以把它理解为两种情况的组合:

第一种情况:当 α i ∗ > 0 \alpha_i^* > 0 αi∗>0
  • 互补松弛条件 α i ∗ ( y i ( w ∗ T x i + b ∗ ) − 1 ) = 0 \alpha_i^* \left( y_i (w^{*T} x_i + b^*) - 1 \right) = 0 αi∗(yi(w∗Txi+b∗)−1)=0 要成立时,如果 α i ∗ > 0 \alpha_i^* > 0 αi∗>0,那么 y i ( w ∗ T x i + b ∗ ) − 1 = 0 y_i (w^{*T} x_i + b^*) - 1 = 0 yi(w∗Txi+b∗)−1=0。
  • 这意味着对于那些拉格朗日乘子 α i ∗ > 0 \alpha_i^* > 0 αi∗>0 的样本 x i x_i xi,它们必须严格满足 y i ( w ∗ T x i + b ∗ ) = 1 y_i (w^{*T} x_i + b^*) = 1 yi(w∗Txi+b∗)=1。这些点恰好位于分类超平面的边界上,也就是说,它们是支持向量
第二种情况:当 α i ∗ = 0 \alpha_i^* = 0 αi∗=0
  • 如果 α i ∗ = 0 \alpha_i^* = 0 αi∗=0,那么互补松弛条件自动成立,无论 y i ( w ∗ T x i + b ∗ ) − 1 y_i (w^{*T} x_i + b^*) - 1 yi(w∗Txi+b∗)−1 是否为 0 或更大。
  • 这意味着对于那些不影响超平面的样本(即 α i ∗ = 0 \alpha_i^* = 0 αi∗=0),它们不需要严格位于边界上,可以离分类超平面更远,满足 y i ( w ∗ T x i + b ∗ ) > 1 y_i (w^{*T} x_i + b^*) > 1 yi(w∗Txi+b∗)>1。换句话说,这些点距离分类超平面较远,它们不会影响分类器的构建。

4. 几何解释

几何上,公式 9-27 说明了样本点在 SVM 分类过程中所扮演的不同角色:

  • 支持向量 :这些样本点恰好位于分类超平面的边界上。对于这些点, α i ∗ > 0 \alpha_i^* > 0 αi∗>0,并且它们满足 y i ( w ∗ T x i + b ∗ ) = 1 y_i (w^{*T} x_i + b^*) = 1 yi(w∗Txi+b∗)=1。这些点直接决定了分类超平面的形状和位置。

  • 非支持向量 :这些点的拉格朗日乘子 α i ∗ = 0 \alpha_i^* = 0 αi∗=0,它们不在分类超平面的边界上,距离超平面有一定的距离。对于这些点, y i ( w ∗ T x i + b ∗ ) > 1 y_i (w^{*T} x_i + b^*) > 1 yi(w∗Txi+b∗)>1,它们对分类超平面的定义没有影响。

5. 公式 9-27 的作用

在 SVM 的优化问题中,公式 9-27 起到了筛选支持向量的作用。根据互补松弛条件,只有那些拉格朗日乘子 α i ∗ > 0 \alpha_i^* > 0 αi∗>0 的点会成为支持向量,它们对分类超平面产生影响。而对于 α i ∗ = 0 \alpha_i^* = 0 αi∗=0 的点,它们不会对分类器的最终结果产生影响,因为这些点在分类超平面的外侧,距离超平面较远。

具体作用如下:
  • 确定支持向量 :通过公式 9-27,我们知道只有那些满足 α i ∗ > 0 \alpha_i^* > 0 αi∗>0 且 y i ( w ∗ T x i + b ∗ ) = 1 y_i (w^{*T} x_i + b^*) = 1 yi(w∗Txi+b∗)=1 的点才是支持向量。这些点是决定分类器超平面形状的关键点。
  • 筛选无影响的点 :对于那些 α i ∗ = 0 \alpha_i^* = 0 αi∗=0 的样本点,它们对超平面的构造没有影响,可以认为这些点在优化过程中被"忽略"了。

6. 总结

公式 9-27 是支持向量机(SVM)优化问题中的互补松弛条件,表明了支持向量( α i ∗ > 0 \alpha_i^* > 0 αi∗>0)和非支持向量( α i ∗ = 0 \alpha_i^* = 0 αi∗=0)之间的区别。通过这个公式,我们可以知道哪些样本点会对分类超平面的构造产生影响(支持向量),以及哪些点不会(非支持向量)。互补松弛条件在优化问题中确保了有效约束的合理性。

相关推荐
XinZong1 小时前
【AI开源项目】OneAPI -核心概念、特性、优缺点以及如何在本地和服务器上进行部署!
人工智能·开源
迷路爸爸1801 小时前
深入理解Allan方差:用体重数据分析误差的时间尺度与稳定性
机器学习·数据分析·概率论
机器之心1 小时前
Runway CEO:AI公司的时代已经结束了
人工智能·后端
T0uken2 小时前
【机器学习】过拟合与欠拟合
人工智能·机器学习
即兴小索奇2 小时前
GPT-4V 是什么?
人工智能
机器学习之心3 小时前
GCN+BiLSTM多特征输入时间序列预测(Pytorch)
人工智能·pytorch·python·gcn+bilstm
码农-阿甘3 小时前
小牛视频翻译 ( 视频翻译 字幕翻译 字幕转语音 人声分离)
人工智能
黑龙江亿林等级保护测评3 小时前
等保行业如何选择核实的安全防御技术
网络·人工智能·python·安全·web安全·智能路由器·ddos
ai产品老杨3 小时前
深度学习模型量化原理
开发语言·人工智能·python·深度学习·安全·音视频
马甲是掉不了一点的<.<3 小时前
计算机视觉常用数据集Cityscapes的介绍、下载、转为YOLO格式进行训练
人工智能·yolo·目标检测·计算机视觉·计算机视觉数据集