【机器学习】04_支持向量机_拉格朗日对偶法

拉格朗日对偶法(Lagrange Dual Method)

示例问题:二维线性可分 SVM

假设我们只有两个样本点,特征空间为 R2\mathbb{R}^2R2:

  1. 正例 (y1=+1y_1 = +1y1=+1) :x1=(3,3)Tx_1 = (3, 3)^Tx1=(3,3)T 1
  2. 负例 (y2=−1y_2 = -1y2=−1) :x2=(1,1)Tx_2 = (1, 1)^Tx2=(1,1)T 2
    我们的目标是找到一个硬间隔最大化分离超平面 w⋅x+b=0w \cdot x + b = 0w⋅x+b=0

第一步:构造原始问题 (Primal Problem)

根据课件,原始目标是最小化 12∣∣w∣∣2\frac{1}{2}||w||^221∣∣w∣∣2 4:

minw,b12(w12+w22)min_{w,b} \frac{1}{2}(w_1^2 + w_2^2)minw,b21(w12+w22)
约束条件 (yi(w⋅xi+b)≥1y_i(w \cdot x_i + b) \ge 1yi(w⋅xi+b)≥1)

  1. 对于 x1x_1x1:1(3w1+3w2+b)≥1⇒3w1+3w2+b−1≥01(3w_1 + 3w_2 + b) \ge 1 \Rightarrow 3w_1 + 3w_2 + b - 1 \ge 01(3w1+3w2+b)≥1⇒3w1+3w2+b−1≥0
  2. 对于 x2x_2x2:−1(1w1+1w2+b)≥1⇒−w1−w2−b−1≥0-1(1w_1 + 1w_2 + b) \ge 1 \Rightarrow -w_1 - w_2 - b - 1 \ge 0−1(1w1+1w2+b)≥1⇒−w1−w2−b−1≥0

第二步:构造拉格朗日函数

引入拉格朗日乘子 α1,α2≥0\alpha_1, \alpha_2 \ge 0α1,α2≥0 6666:

L(w,b,α)=12(w12+w22)−α1(3w1+3w2+b−1)−α2(−w1−w2−b−1)L(w, b, \alpha) = \frac{1}{2}(w_1^2 + w_2^2) - \alpha_1(3w_1 + 3w_2 + b - 1) - \alpha_2(-w_1 - w_2 - b - 1)L(w,b,α)=21(w12+w22)−α1(3w1+3w2+b−1)−α2(−w1−w2−b−1)

第三步:求解对偶问题 (Dual Problem)

为了得到对偶问题的表达形式,我们先对 www 和 bbb 求偏导并令其为 0 8:

  1. ∂L∂w=0⇒w=α1x1y1+α2x2y2\frac{\partial L}{\partial w} = 0 \Rightarrow w = \alpha_1 x_1 y_1 + \alpha_2 x_2 y_2∂w∂L=0⇒w=α1x1y1+α2x2y2 9999
    • w1=3α1−α2w_1 = 3\alpha_1 - \alpha_2w1=3α1−α2
    • w2=3α1−α2w_2 = 3\alpha_1 - \alpha_2w2=3α1−α2
  2. ∂L∂b=0⇒α1y1+α2y2=0⇒α1−α2=0⇒α1=α2\frac{\partial L}{\partial b} = 0 \Rightarrow \alpha_1 y_1 + \alpha_2 y_2 = 0 \Rightarrow \alpha_1 - \alpha_2 = 0 \Rightarrow \alpha_1 = \alpha_2∂b∂L=0⇒α1y1+α2y2=0⇒α1−α2=0⇒α1=α2
    将上述关系代入 LLL,得到只包含 α\alphaα 的对偶目标函数 W(α)W(\alpha)W(α)
    maxαα1+α2−12∑i=12∑j=12αiαjyiyj(xi⋅xj)max_{\alpha} \alpha_1 + \alpha_2 - \frac{1}{2} \sum_{i=1}^{2} \sum_{j=1}^{2} \alpha_i \alpha_j y_i y_j (x_i \cdot x_j)maxαα1+α2−21i=1∑2j=1∑2αiαjyiyj(xi⋅xj)
    计算内积:x1⋅x1=18,x2⋅x2=2,x1⋅x2=6x_1 \cdot x_1 = 18, x_2 \cdot x_2 = 2, x_1 \cdot x_2 = 6x1⋅x1=18,x2⋅x2=2,x1⋅x2=6。
    代入 α1=α2=α\alpha_1 = \alpha_2 = \alphaα1=α2=α:
    W(α)=2α−12[α2(18)+α2(2)−2α2(6)]=2α−4α2W(\alpha) = 2\alpha - \frac{1}{2} [\alpha^2(18) + \alpha^2(2) - 2\alpha^2(6)] = 2\alpha - 4\alpha^2W(α)=2α−21[α2(18)+α2(2)−2α2(6)]=2α−4α2
    对 α\alphaα 求极值:dWdα=2−8α=0⇒α=0.25\frac{dW}{d\alpha} = 2 - 8\alpha = 0 \Rightarrow \alpha = 0.25dαdW=2−8α=0⇒α=0.25。
    所以:α1∗=0.25,α2∗=0.25\alpha_1^* = 0.25, \alpha_2^* = 0.25α1∗=0.25,α2∗=0.25 13。

第四步:解出最优参数 w∗w^*w∗ 和 b∗b^*b∗

  1. 求解 w∗w^*w∗ w∗=α1y1x1+α2y2x2=0.25(1)(33)+0.25(−1)(11)=(0.50.5)w^* = \alpha_1 y_1 x_1 + \alpha_2 y_2 x_2 = 0.25(1)\begin{pmatrix} 3 \\ 3 \end{pmatrix} + 0.25(-1)\begin{pmatrix} 1 \\ 1 \end{pmatrix} = \begin{pmatrix} 0.5 \\ 0.5 \end{pmatrix}w∗=α1y1x1+α2y2x2=0.25(1)(33)+0.25(−1)(11)=(0.50.5)
  2. 求解 b∗b^*b∗(使用支持向量 x1x_1x1,y1(w⋅x1+b)=1y_1(w \cdot x_1 + b) = 1y1(w⋅x1+b)=1)15151515:
    1(0.5×3+0.5×3+b)=1⇒3+b=1⇒b∗=−21(0.5 \times 3 + 0.5 \times 3 + b) = 1 \Rightarrow 3 + b = 1 \Rightarrow b^* = -21(0.5×3+0.5×3+b)=1⇒3+b=1⇒b∗=−2

总结结论

  • 分离超平面 :0.5x1+0.5x2−2=00.5x_1 + 0.5x_2 - 2 = 00.5x1+0.5x2−2=0 16
  • 决策函数 :f(x)=sign(0.5x1+0.5x2−2)f(x) = sign(0.5x_1 + 0.5x_2 - 2)f(x)=sign(0.5x1+0.5x2−2) 17
  • 物理意义 :这两个点都是支持向量(因为 α∗>0\alpha^* > 0α∗>0)18181818。超平面正好位于 (3,3)(3,3)(3,3) 和 (1,1)(1,1)(1,1) 连线的中垂线上。

通过这个例子你可以看到: 我们根本没有直接去解复杂的 www 方程组,而是通过解简单的 α\alphaα 得到了最终结果。这就是对偶法的魅力。

相关推荐
敏叔V5871 小时前
AI应用开发框架对比:LangChain vs. Semantic Kernel vs. DSPy 深度解析
人工智能·驱动开发·langchain
川西胖墩墩1 小时前
自动化提示工程的演进路径
人工智能
小咖自动剪辑1 小时前
视频去水印与去字幕教程:免费去水印软件与去字幕工具推荐
人工智能·音视频·实时音视频·视频编解码
GISer_Jing1 小时前
1.17-1.23日博客之星投票,每日可投
前端·人工智能·arcgis
檐下翻书1731 小时前
HR人力资源管理流程图在线绘制方法
大数据·人工智能·架构·流程图·论文笔记
liliangcsdn2 小时前
基于策略梯度的高效强化学习算法-GRPO
人工智能
JAI科研2 小时前
MICCAI 2025 IUGC 图像超声关键点检测及超声参数测量挑战赛
人工智能·深度学习·算法·计算机视觉·自然语言处理·视觉检测·transformer
weixin_307779132 小时前
在AWS上构建类Manus的生产级AI Agent服务
运维·人工智能·云计算·aws·agi
南村群童欺我老无力.2 小时前
Flutter 框架跨平台鸿蒙开发 - 井字棋游戏开发指南(含Minimax AI)
人工智能·flutter·华为·harmonyos