《机器学习》第6章 支持向量机

文章目录

  • [6.1 间隔与支持向量](#6.1 间隔与支持向量)
  • [6.2 对偶问题](#6.2 对偶问题)
  • [6.3 核函数](#6.3 核函数)
  • [6.4 软间隔与正则化](#6.4 软间隔与正则化)
  • [6.5 支持向量回归](#6.5 支持向量回归)
  • [6.6 核方法](#6.6 核方法)
  • [6.7 阅读材料](#6.7 阅读材料)

6.1 间隔与支持向量

分类学习最基本的想法就是基于训练集D在样本空间中找到一个划分超平面,将不同类别的样本分开.但能将训练样本分开的划分超平面可能有很多,如图6.1所示,我们应该努力去找到哪一个呢?

在样本空间中,划分超平面可通过如下线性方程来描述:

样本空间中任意点x到超平面(w,b)的距离可写为:

假设超平面(,b)能将训练样本正确分类,则有:

如图6.2所示,距离超平面最近的这几个训练样本点使式(6.3)的等号成立,它们被称为"支持向量"(support vector),两个异类支持向量到超平面的距离之和为

它被称为间隔。

目标:找最大间隔

即:

这就是支持向量机(简称SVM) 的基本型。

6.2 对偶问题

问题:求解(6.6)式得到大间隔划分超平面所对应的模型

对式(6.6)使用拉格朗日乘子法可得到其"对偶问题"(dual problem).具体来说,对式(6.6)的每条约束添加拉格朗日乘子α≥0,则该问题的拉格朗日函数可写为

求偏导:

得到对偶问题:

求解:

条件限制:

6.3 核函数

问题:在现实任务中,原始样本空间并不存在一个能正确划分两类样本的超平面。

解决方案:向高维空间映射。

映射模型:

转换:

其对偶问题是:

支持向量展式

又提出一个难题?

函数重写·:

求解:

核函数

定理6.1表明,只要一个对称函数所对应的核矩阵半正定,它就能作为核函数使用.事实上,对于一个半正定核矩阵,总能找到一个与之对应的映射由.换言之,任何一个核函数都隐式地定义了一个称为"再生核希尔伯特空间"(Reproducing Kernel Hilbert Space.简称RKHS)的特征空间。

通过前面的讨论可知,我们希望样本在特征空间内线性可分,因此特征空间的好坏对支持向量机的性能至关重要.需注意的是,在不知道特征映射的形式时,我们并不知道什么样的核函数是合适的,而核函数也仅是隐式地定义了这个特征空间.于是,"核函数选择"成为支持向量机的最大变数.若核函数选择不合适,则意味着将样本映射到了一个不合适的特征空间,很可能导致性能不佳.

性质:


6.4 软间隔与正则化

在前面的讨论中,我们一直假定训练样本在样本空间或特征空间中是线性可分的,即存在一个超平面能将不同类的样本完全划分开.然而,在现实任务中往往很难确定合适的核函数使得训练样本在特征空间中线性可分;退一步说,即便恰好找到了某个核函数使训练集在特征空间中线性可分,也很难断定这个貌似线性可分的结果不是由于过拟合所造成的.

缓解该问题的一个办法是允许支持向量机在一些样本上出错.为此,要引入"软间隔"(soft margin)的概念,如图6.4所示.

6.5 支持向量回归

6.6 核方法

6.7 阅读材料

相关推荐
yzx99101310 分钟前
生活在数字世界:一份人人都能看懂的网络安全生存指南
运维·开发语言·网络·人工智能·自动化
许泽宇的技术分享1 小时前
LangGraph深度解析:构建下一代智能Agent的架构革命——从Pregel到现代AI工作流的技术飞跃
人工智能·架构
乔巴先生241 小时前
LLMCompiler:基于LangGraph的并行化Agent架构高效实现
人工智能·python·langchain·人机交互
静西子2 小时前
LLM大语言模型部署到本地(个人总结)
人工智能·语言模型·自然语言处理
cxr8283 小时前
基于Claude Code的 规范驱动开发(SDD)指南
人工智能·hive·驱动开发·敏捷流程·智能体
Billy_Zuo3 小时前
人工智能机器学习——决策树、异常检测、主成分分析(PCA)
人工智能·决策树·机器学习
小王爱学人工智能3 小时前
OpenCV的图像金字塔
人工智能·opencv·计算机视觉
北京地铁1号线4 小时前
Qwen-VL(阿里通义千问视觉语言模型)模型架构和损失函数介绍
人工智能·语言模型·自然语言处理
阿豪34 小时前
2025 年职场转行突围:除实习外,这些硬核证书让你的简历脱颖而出(纯经验分享)
大数据·人工智能·经验分享·科技·信息可视化·产品经理