线性可分支持向量机的原理推导 9-27拉格朗日乘子和不等式约束关系 公式解析

本文是将文章《线性可分支持向量机的原理推导》中的公式单独拿出来做一个详细的解析,便于初学者更好的理解。


公式 9-27 是支持向量机(SVM)优化过程中 Karush-Kuhn-Tucker (KKT) 条件的其中一项,表示 互补松弛条件(Complementary Slackness Condition)。该条件是拉格朗日对偶理论中的一个核心部分,它反映了优化问题中约束和拉格朗日乘子之间的关系。

公式 9-27 的表达式如下:
α i ∗ ( y i ( w ∗ T x i + b ∗ ) − 1 ) = 0 , i = 1 , 2 , ... , N \alpha_i^* \left( y_i \left( w^{*T} x_i + b^* \right) - 1 \right) = 0, \quad i = 1, 2, \dots, N αi∗(yi(w∗Txi+b∗)−1)=0,i=1,2,...,N

1. 公式的含义

这个公式描述了拉格朗日乘子 α i ∗ \alpha_i^* αi∗ 和不等式约束 y i ( w ∗ T x i + b ∗ ) − 1 y_i (w^{*T} x_i + b^*) - 1 yi(w∗Txi+b∗)−1 之间的关系。具体来说,它表达了以下两种可能情况:

  • 当 α i ∗ > 0 \alpha_i^* > 0 αi∗>0 时,样本 x i x_i xi 必须满足 y i ( w ∗ T x i + b ∗ ) = 1 y_i (w^{*T} x_i + b^*) = 1 yi(w∗Txi+b∗)=1,即样本 x i x_i xi 位于分类超平面的边界上,这些点称为支持向量
  • 当 α i ∗ = 0 \alpha_i^* = 0 αi∗=0 时,样本 x i x_i xi 的分类间隔 y i ( w ∗ T x i + b ∗ ) y_i (w^{*T} x_i + b^*) yi(w∗Txi+b∗) 必须大于 1,也就是说,这些样本离分类超平面较远,它们对分类超平面的定义没有影响。

该公式本质上是 KKT 条件中的互补松弛条件,要求对于每个样本 x i x_i xi,只有当约束 y i ( w ∗ T x i + b ∗ ) = 1 y_i (w^{*T} x_i + b^*) = 1 yi(w∗Txi+b∗)=1 严格成立时,拉格朗日乘子 α i ∗ \alpha_i^* αi∗ 才能大于 0。

2. 推导背景

在 SVM 中,我们的目标是找到一个超平面来最大化分类间隔,同时满足以下约束条件:
y i ( w T x i + b ) ≥ 1 , 对于每个训练样本 i y_i (w^T x_i + b) \geq 1, \quad \text{对于每个训练样本 } i yi(wTxi+b)≥1,对于每个训练样本 i

这个不等式意味着,所有的训练样本 x i x_i xi 必须被正确分类,并且正类样本( y i = 1 y_i = 1 yi=1)必须位于分类超平面一侧的距离至少为 1,负类样本( y i = − 1 y_i = -1 yi=−1)则必须位于另一侧的距离至少为 1。

为了处理这个带有不等式约束的优化问题,SVM 引入了拉格朗日乘子 α i \alpha_i αi,并构造拉格朗日函数:
L ( w , b , α ) = 1 2 ∥ w ∥ 2 − ∑ i = 1 N α i ( y i ( w T x i + b ) − 1 ) L(w, b, \alpha) = \frac{1}{2} \|w\|^2 - \sum_{i=1}^{N} \alpha_i \left( y_i (w^T x_i + b) - 1 \right) L(w,b,α)=21∥w∥2−i=1∑Nαi(yi(wTxi+b)−1)

在最优条件下,KKT 条件要求满足互补松弛条件,即:
α i ∗ ( y i ( w ∗ T x i + b ∗ ) − 1 ) = 0 \alpha_i^* \left( y_i \left( w^{*T} x_i + b^* \right) - 1 \right) = 0 αi∗(yi(w∗Txi+b∗)−1)=0

3. 互补松弛条件的解释

这个条件反映了不等式约束 y i ( w T x i + b ) ≥ 1 y_i (w^T x_i + b) \geq 1 yi(wTxi+b)≥1 和拉格朗日乘子 α i \alpha_i αi 的关系。我们可以把它理解为两种情况的组合:

第一种情况:当 α i ∗ > 0 \alpha_i^* > 0 αi∗>0
  • 互补松弛条件 α i ∗ ( y i ( w ∗ T x i + b ∗ ) − 1 ) = 0 \alpha_i^* \left( y_i (w^{*T} x_i + b^*) - 1 \right) = 0 αi∗(yi(w∗Txi+b∗)−1)=0 要成立时,如果 α i ∗ > 0 \alpha_i^* > 0 αi∗>0,那么 y i ( w ∗ T x i + b ∗ ) − 1 = 0 y_i (w^{*T} x_i + b^*) - 1 = 0 yi(w∗Txi+b∗)−1=0。
  • 这意味着对于那些拉格朗日乘子 α i ∗ > 0 \alpha_i^* > 0 αi∗>0 的样本 x i x_i xi,它们必须严格满足 y i ( w ∗ T x i + b ∗ ) = 1 y_i (w^{*T} x_i + b^*) = 1 yi(w∗Txi+b∗)=1。这些点恰好位于分类超平面的边界上,也就是说,它们是支持向量
第二种情况:当 α i ∗ = 0 \alpha_i^* = 0 αi∗=0
  • 如果 α i ∗ = 0 \alpha_i^* = 0 αi∗=0,那么互补松弛条件自动成立,无论 y i ( w ∗ T x i + b ∗ ) − 1 y_i (w^{*T} x_i + b^*) - 1 yi(w∗Txi+b∗)−1 是否为 0 或更大。
  • 这意味着对于那些不影响超平面的样本(即 α i ∗ = 0 \alpha_i^* = 0 αi∗=0),它们不需要严格位于边界上,可以离分类超平面更远,满足 y i ( w ∗ T x i + b ∗ ) > 1 y_i (w^{*T} x_i + b^*) > 1 yi(w∗Txi+b∗)>1。换句话说,这些点距离分类超平面较远,它们不会影响分类器的构建。

4. 几何解释

几何上,公式 9-27 说明了样本点在 SVM 分类过程中所扮演的不同角色:

  • 支持向量 :这些样本点恰好位于分类超平面的边界上。对于这些点, α i ∗ > 0 \alpha_i^* > 0 αi∗>0,并且它们满足 y i ( w ∗ T x i + b ∗ ) = 1 y_i (w^{*T} x_i + b^*) = 1 yi(w∗Txi+b∗)=1。这些点直接决定了分类超平面的形状和位置。

  • 非支持向量 :这些点的拉格朗日乘子 α i ∗ = 0 \alpha_i^* = 0 αi∗=0,它们不在分类超平面的边界上,距离超平面有一定的距离。对于这些点, y i ( w ∗ T x i + b ∗ ) > 1 y_i (w^{*T} x_i + b^*) > 1 yi(w∗Txi+b∗)>1,它们对分类超平面的定义没有影响。

5. 公式 9-27 的作用

在 SVM 的优化问题中,公式 9-27 起到了筛选支持向量的作用。根据互补松弛条件,只有那些拉格朗日乘子 α i ∗ > 0 \alpha_i^* > 0 αi∗>0 的点会成为支持向量,它们对分类超平面产生影响。而对于 α i ∗ = 0 \alpha_i^* = 0 αi∗=0 的点,它们不会对分类器的最终结果产生影响,因为这些点在分类超平面的外侧,距离超平面较远。

具体作用如下:
  • 确定支持向量 :通过公式 9-27,我们知道只有那些满足 α i ∗ > 0 \alpha_i^* > 0 αi∗>0 且 y i ( w ∗ T x i + b ∗ ) = 1 y_i (w^{*T} x_i + b^*) = 1 yi(w∗Txi+b∗)=1 的点才是支持向量。这些点是决定分类器超平面形状的关键点。
  • 筛选无影响的点 :对于那些 α i ∗ = 0 \alpha_i^* = 0 αi∗=0 的样本点,它们对超平面的构造没有影响,可以认为这些点在优化过程中被"忽略"了。

6. 总结

公式 9-27 是支持向量机(SVM)优化问题中的互补松弛条件,表明了支持向量( α i ∗ > 0 \alpha_i^* > 0 αi∗>0)和非支持向量( α i ∗ = 0 \alpha_i^* = 0 αi∗=0)之间的区别。通过这个公式,我们可以知道哪些样本点会对分类超平面的构造产生影响(支持向量),以及哪些点不会(非支持向量)。互补松弛条件在优化问题中确保了有效约束的合理性。

相关推荐
AI视觉网奇1 分钟前
人脸生成3d模型 Era3D
人工智能·计算机视觉
call me by ur name4 分钟前
VLM--CLIP作分类任务的损失函数
人工智能·机器学习·分类
Python机器学习AI9 分钟前
分类模型的预测概率解读:3D概率分布可视化的直观呈现
算法·机器学习·分类
吃个糖糖19 分钟前
34 Opencv 自定义角点检测
人工智能·opencv·计算机视觉
禁默20 分钟前
2024年图像处理、多媒体技术与机器学习
图像处理·人工智能·microsoft
KeepThinking!26 分钟前
YOLO-World:Real-Time Open-Vocabulary Object Detection
人工智能·yolo·目标检测·多模态
AIGCmagic社区29 分钟前
AI多模态技术介绍:理解多模态大语言模型的原理
人工智能·语言模型·自然语言处理
图王大胜36 分钟前
模型 双螺旋(通俗解读)
人工智能·管理·系统科学·认知科学·生命科学·战略规划·通识科学
dwjf3211 小时前
机器学习(四)-回归模型评估指标
人工智能·机器学习·线性回归
吕小明么1 小时前
OpenAI o3 “震撼” 发布后回归技术本身的审视与进一步思考
人工智能·深度学习·算法·aigc·agi