线性可分支持向量机的原理推导 标准优化目标 公式解析

本文是将文章《线性可分支持向量机的原理推导》中的公式单独拿出来做一个详细的解析,便于初学者更好的理解。


公式 9-6 是从之前的最大化间隔问题(公式 9-4 和 9-5)推导出来的支持向量机(SVM)的优化问题。它表示的是一个标准的优化目标,其中我们希望最小化超平面法向量 w \mathbf{w} w 的大小,同时满足一定的分类约束。

公式 9-6 的形式如下:
min ⁡ w , b 1 2 ∥ w ∥ 2 \min_{\mathbf{w}, b} \quad \frac{1}{2} \|\mathbf{w}\|^2 w,bmin21∥w∥2

subject to y i ( w T x i + b ) ≥ 1 , i = 1 , 2 , ... , N \text{subject to} \quad y_i (\mathbf{w}^T \mathbf{x}_i + b) \geq 1, \quad i = 1, 2, \ldots, N subject toyi(wTxi+b)≥1,i=1,2,...,N

1. 公式 9-6 的含义

优化目标:最小化 1 2 ∥ w ∥ 2 \frac{1}{2} \|\mathbf{w}\|^2 21∥w∥2
  • 1 2 ∥ w ∥ 2 \frac{1}{2} \|\mathbf{w}\|^2 21∥w∥2 是支持向量机优化中的目标函数,它表示的是超平面法向量 w \mathbf{w} w 的范数平方的一半。我们希望通过最小化这个函数来最大化分类间隔

    • 最大化分类间隔的意义 :在支持向量机中,超平面法向量 w \mathbf{w} w 的大小 ∥ w ∥ \|\mathbf{w}\| ∥w∥ 与分类间隔成反比。也就是说,法向量越大,分类间隔就越小,反之,法向量越小,分类间隔越大。因此,最小化 ∥ w ∥ \|\mathbf{w}\| ∥w∥ 是为了最大化间隔,这也是支持向量机的核心目标之一。

    • 为什么使用 1 2 ∥ w ∥ 2 \frac{1}{2} \|\mathbf{w}\|^2 21∥w∥2 而不是直接使用 ∥ w ∥ \|\mathbf{w}\| ∥w∥?这里平方的一半是为了方便后续使用梯度下降等优化算法进行求解。平方函数的导数是线性的,方便进行优化步骤。此外,平方不会影响优化目标,因为最小化 ∥ w ∥ \|\mathbf{w}\| ∥w∥ 和最小化 ∥ w ∥ 2 \|\mathbf{w}\|^2 ∥w∥2 是等价的。

约束条件: y i ( w T x i + b ) ≥ 1 y_i (\mathbf{w}^T \mathbf{x}_i + b) \geq 1 yi(wTxi+b)≥1
  • 这个约束条件确保了样本点被正确分类,同时每个样本点到超平面的几何距离至少为 1。

    • 分类函数 : w T x i + b \mathbf{w}^T \mathbf{x}_i + b wTxi+b 是超平面方程,表示样本 x i \mathbf{x}_i xi 相对于超平面的分类结果。
    • y i y_i yi :是真实的类别标签,取值为 + 1 +1 +1 或 − 1 -1 −1。当 y i = 1 y_i = 1 yi=1 时,约束条件变为 w T x i + b ≥ 1 \mathbf{w}^T \mathbf{x}_i + b \geq 1 wTxi+b≥1,表示正类样本点应位于超平面的一侧,且离超平面的距离至少为 1;当 y i = − 1 y_i = -1 yi=−1 时,约束条件变为 w T x i + b ≤ − 1 \mathbf{w}^T \mathbf{x}_i + b \leq -1 wTxi+b≤−1,表示负类样本点应位于超平面的另一侧,且离超平面的距离至少为 1。
    • 这个约束确保了所有样本点被正确分类并且它们与超平面的距离不小于 1。

2. 公式 9-6 的推导背景

从公式 9-4 和 9-5 开始,我们的目标是最大化几何间隔 d d d,同时确保所有样本点满足分类约束条件。为了简化这个问题,在公式 9-5 中我们令 d = 1 d = 1 d=1,将最大化几何间隔的问题转化为最小化法向量 w \mathbf{w} w 的大小。

具体来说,最大化分类间隔等价于最小化 ∥ w ∥ \|\mathbf{w}\| ∥w∥,这也就转化为了公式 9-6 中的优化目标。

3. 公式 9-6 的几何解释

支持向量机的几何直观解释是:我们试图找到一个可以最大化分类间隔的超平面,使得最靠近超平面的样本点(即支持向量)与超平面的距离最大。在几何上,间隔 与法向量 w \mathbf{w} w 的大小成反比,因此最小化 ∥ w ∥ \|\mathbf{w}\| ∥w∥ 是为了让分类器的决策边界尽可能地远离所有样本点。

4. 约束优化问题

公式 9-6 是一个约束优化问题 ,目标是在满足分类约束的前提下最小化目标函数。求解这个问题的常见方法是使用拉格朗日乘子法,将约束条件引入到优化目标中,形成一个无约束的优化问题,这将会在后续通过对偶问题的形式进一步讨论。

5. 公式 9-6 的意义

公式 9-6 是支持向量机优化问题的标准形式,它将分类间隔最大化问题 转化为一个凸二次规划问题 ,并且该问题有全局最优解。这个问题的目标函数是二次的,约束条件是线性的,因此称为凸二次规划问题

总结

  • 优化目标 :最小化 1 2 ∥ w ∥ 2 \frac{1}{2} \|\mathbf{w}\|^2 21∥w∥2,即最小化法向量的大小,从而最大化分类间隔。
  • 约束条件:确保所有样本点被正确分类,并且离超平面的几何距离至少为 1。

公式 9-6 是支持向量机的基本优化问题,它为我们提供了找到最优超平面的数学框架。通过最小化法向量 w \mathbf{w} w 的大小,我们确保了分类的稳定性和鲁棒性。

相关推荐
sinat_286945191 分钟前
一种简单的ReAct agent演示
人工智能·chatgpt·prompt
Cherry Xie11 分钟前
阿里开源正式开园文生视频、图生视频模型-通义万相 WanX2.1
人工智能·音视频
热爱编程的OP16 分钟前
第九章:多模态大语言模型
人工智能·语言模型·自然语言处理
zxfeng~25 分钟前
深度学习之“雅可比矩阵与黑塞矩阵”
人工智能·python·深度学习·神经网络
MuLogin_Browser29 分钟前
矩阵营销的 AI 进化:DeepSeek 如何助力批量运营账号?
人工智能·线性代数·矩阵
AllYoung_36229 分钟前
WebUI 部署 Ollama 可视化对话界面
人工智能·深度学习·算法·语言模型·aigc·llama
yuweififi30 分钟前
pytorch基础-比较矩阵是否相等
人工智能·pytorch
洛北辰南33 分钟前
【论文学习】DeepSeek-V3 总结
人工智能·论文笔记
俊哥V1 小时前
[思考记录.AI]面对当下大模型,自己的一些感受
人工智能·ai
正宗咸豆花1 小时前
释放 Cursor 的全部潜能:快速生成智能 Cursor Rules
人工智能