【机器学习】04_支持向量机_拉格朗日对偶法

拉格朗日对偶法(Lagrange Dual Method)

示例问题:二维线性可分 SVM

假设我们只有两个样本点,特征空间为 R2\mathbb{R}^2R2:

  1. 正例 (y1=+1y_1 = +1y1=+1) :x1=(3,3)Tx_1 = (3, 3)^Tx1=(3,3)T 1
  2. 负例 (y2=−1y_2 = -1y2=−1) :x2=(1,1)Tx_2 = (1, 1)^Tx2=(1,1)T 2
    我们的目标是找到一个硬间隔最大化分离超平面 w⋅x+b=0w \cdot x + b = 0w⋅x+b=0

第一步:构造原始问题 (Primal Problem)

根据课件,原始目标是最小化 12∣∣w∣∣2\frac{1}{2}||w||^221∣∣w∣∣2 4:

minw,b12(w12+w22)min_{w,b} \frac{1}{2}(w_1^2 + w_2^2)minw,b21(w12+w22)
约束条件 (yi(w⋅xi+b)≥1y_i(w \cdot x_i + b) \ge 1yi(w⋅xi+b)≥1)

  1. 对于 x1x_1x1:1(3w1+3w2+b)≥1⇒3w1+3w2+b−1≥01(3w_1 + 3w_2 + b) \ge 1 \Rightarrow 3w_1 + 3w_2 + b - 1 \ge 01(3w1+3w2+b)≥1⇒3w1+3w2+b−1≥0
  2. 对于 x2x_2x2:−1(1w1+1w2+b)≥1⇒−w1−w2−b−1≥0-1(1w_1 + 1w_2 + b) \ge 1 \Rightarrow -w_1 - w_2 - b - 1 \ge 0−1(1w1+1w2+b)≥1⇒−w1−w2−b−1≥0

第二步:构造拉格朗日函数

引入拉格朗日乘子 α1,α2≥0\alpha_1, \alpha_2 \ge 0α1,α2≥0 6666:

L(w,b,α)=12(w12+w22)−α1(3w1+3w2+b−1)−α2(−w1−w2−b−1)L(w, b, \alpha) = \frac{1}{2}(w_1^2 + w_2^2) - \alpha_1(3w_1 + 3w_2 + b - 1) - \alpha_2(-w_1 - w_2 - b - 1)L(w,b,α)=21(w12+w22)−α1(3w1+3w2+b−1)−α2(−w1−w2−b−1)

第三步:求解对偶问题 (Dual Problem)

为了得到对偶问题的表达形式,我们先对 www 和 bbb 求偏导并令其为 0 8:

  1. ∂L∂w=0⇒w=α1x1y1+α2x2y2\frac{\partial L}{\partial w} = 0 \Rightarrow w = \alpha_1 x_1 y_1 + \alpha_2 x_2 y_2∂w∂L=0⇒w=α1x1y1+α2x2y2 9999
    • w1=3α1−α2w_1 = 3\alpha_1 - \alpha_2w1=3α1−α2
    • w2=3α1−α2w_2 = 3\alpha_1 - \alpha_2w2=3α1−α2
  2. ∂L∂b=0⇒α1y1+α2y2=0⇒α1−α2=0⇒α1=α2\frac{\partial L}{\partial b} = 0 \Rightarrow \alpha_1 y_1 + \alpha_2 y_2 = 0 \Rightarrow \alpha_1 - \alpha_2 = 0 \Rightarrow \alpha_1 = \alpha_2∂b∂L=0⇒α1y1+α2y2=0⇒α1−α2=0⇒α1=α2
    将上述关系代入 LLL,得到只包含 α\alphaα 的对偶目标函数 W(α)W(\alpha)W(α)
    maxαα1+α2−12∑i=12∑j=12αiαjyiyj(xi⋅xj)max_{\alpha} \alpha_1 + \alpha_2 - \frac{1}{2} \sum_{i=1}^{2} \sum_{j=1}^{2} \alpha_i \alpha_j y_i y_j (x_i \cdot x_j)maxαα1+α2−21i=1∑2j=1∑2αiαjyiyj(xi⋅xj)
    计算内积:x1⋅x1=18,x2⋅x2=2,x1⋅x2=6x_1 \cdot x_1 = 18, x_2 \cdot x_2 = 2, x_1 \cdot x_2 = 6x1⋅x1=18,x2⋅x2=2,x1⋅x2=6。
    代入 α1=α2=α\alpha_1 = \alpha_2 = \alphaα1=α2=α:
    W(α)=2α−12[α2(18)+α2(2)−2α2(6)]=2α−4α2W(\alpha) = 2\alpha - \frac{1}{2} [\alpha^2(18) + \alpha^2(2) - 2\alpha^2(6)] = 2\alpha - 4\alpha^2W(α)=2α−21[α2(18)+α2(2)−2α2(6)]=2α−4α2
    对 α\alphaα 求极值:dWdα=2−8α=0⇒α=0.25\frac{dW}{d\alpha} = 2 - 8\alpha = 0 \Rightarrow \alpha = 0.25dαdW=2−8α=0⇒α=0.25。
    所以:α1∗=0.25,α2∗=0.25\alpha_1^* = 0.25, \alpha_2^* = 0.25α1∗=0.25,α2∗=0.25 13。

第四步:解出最优参数 w∗w^*w∗ 和 b∗b^*b∗

  1. 求解 w∗w^*w∗ w∗=α1y1x1+α2y2x2=0.25(1)(33)+0.25(−1)(11)=(0.50.5)w^* = \alpha_1 y_1 x_1 + \alpha_2 y_2 x_2 = 0.25(1)\begin{pmatrix} 3 \\ 3 \end{pmatrix} + 0.25(-1)\begin{pmatrix} 1 \\ 1 \end{pmatrix} = \begin{pmatrix} 0.5 \\ 0.5 \end{pmatrix}w∗=α1y1x1+α2y2x2=0.25(1)(33)+0.25(−1)(11)=(0.50.5)
  2. 求解 b∗b^*b∗(使用支持向量 x1x_1x1,y1(w⋅x1+b)=1y_1(w \cdot x_1 + b) = 1y1(w⋅x1+b)=1)15151515:
    1(0.5×3+0.5×3+b)=1⇒3+b=1⇒b∗=−21(0.5 \times 3 + 0.5 \times 3 + b) = 1 \Rightarrow 3 + b = 1 \Rightarrow b^* = -21(0.5×3+0.5×3+b)=1⇒3+b=1⇒b∗=−2

总结结论

  • 分离超平面 :0.5x1+0.5x2−2=00.5x_1 + 0.5x_2 - 2 = 00.5x1+0.5x2−2=0 16
  • 决策函数 :f(x)=sign(0.5x1+0.5x2−2)f(x) = sign(0.5x_1 + 0.5x_2 - 2)f(x)=sign(0.5x1+0.5x2−2) 17
  • 物理意义 :这两个点都是支持向量(因为 α∗>0\alpha^* > 0α∗>0)18181818。超平面正好位于 (3,3)(3,3)(3,3) 和 (1,1)(1,1)(1,1) 连线的中垂线上。

通过这个例子你可以看到: 我们根本没有直接去解复杂的 www 方程组,而是通过解简单的 α\alphaα 得到了最终结果。这就是对偶法的魅力。

相关推荐
财富自由且长命百岁19 小时前
移动端老兵转型端侧 AI:第一周,我跑通了 ResNet50 推理
机器学习
美酒没故事°19 小时前
Open WebUI安装指南。搭建自己的自托管 AI 平台
人工智能·windows·ai
云烟成雨TD19 小时前
Spring AI Alibaba 1.x 系列【6】ReactAgent 同步执行 & 流式执行
java·人工智能·spring
AI攻城狮19 小时前
用 Obsidian CLI + LLM 构建本地 RAG:让你的笔记真正「活」起来
人工智能·云原生·aigc
鸿乃江边鸟20 小时前
Nanobot 从onboard启动命令来看个人助理Agent的实现
人工智能·ai
lpfasd12320 小时前
基于Cloudflare生态的应用部署与开发全解
人工智能·agent·cloudflare
俞凡20 小时前
DevOps 2.0:智能体如何接管故障修复和基础设施维护
人工智能
comedate20 小时前
[OpenClaw] GLM 5 关于电影 - 人工智能 - 的思考
人工智能·电影评价
财迅通Ai20 小时前
6000万吨产能承压 卫星化学迎来战略窗口期
大数据·人工智能·物联网·卫星化学
liliangcsdn20 小时前
Agent Memory智能体记忆系统的示例分析
数据库·人工智能·全文检索