支持向量机(SVM)

前提知识:拉格朗日乘子法和KKT条件-CSDN博客

概述

支持向量机(Support Vector Machine:SVM) 的目的是用训练数据集的间隔最大化找到一个最优分离超平面。

这里面有两个概念间隔最大化和最优分离超平面。

最优分离超平面

  • 在一维的平面中,我们使用点来进行分隔
  • 在二维的平面中,用线
  • 在三维的平面中,用面
  • 在更高的维度中,我们称之为超平面

在众多分离超平面中选择一个最好的超平面,称之为最优分离超平面。

选择原理:

  • 正确的对训练数据进行分类
  • 对未知数据也能很好的分类

详细解释:

最优分离超平面其实是和两侧样本点有关,而且只和这些点有关。观察如下图:

其中当间隔达到最大,两侧样本点的距离相等的超平面为最优分离超平面。对应上图,Margin对应的就是最优分离超平面的间隔,此时的间隔达到最大。

间隔最大化

如果我们能够确定两个平行超平面,那么两个超平面之间的最大距离就是最大化间隔,即Margin。

计算

如何计算两个超平面之间的距离,也就是如何计算最大化间隔。

怎么确定两个超平面?

我们知道一条直线的数学方程是:y-ax+b=0,而超平面会被定义成类似的形式:

推广到n维空间,则超平面方程中的w、x分别为:

如何确保两超平面之间没有数据点?我们的目的是通过两个平行超平面对数据进行分类,那我们可以这样定义两个超平面。

对于每一个向量xi:满足:

将两个不等式合并成一个不等式的形式,将不等式两边同时乘以 yi,-1类的超平面yi=-1,要改变不等式符号,合并后得:

如何确定间隔?

平面的垂直距离就是我们要的间隔。

结果:

其中||w||表示w的二范数,求所有元素的平方和,然后在开方。比如,二维平面为

可以发现,w 的模越小,间隔m 越大。

求间隔最大化------最优化问题

因此,SVM最小化以下目标函数:

其中,C是决定两类之间的裕度内训练数据点数量的常数,即训练误差,ξ是防止过拟合的松弛变量。

上面的最优超平面问题是一个凸优化问题,可以转换成了拉格朗日的对偶问题(如下图所示),判断是否满足KKT条件,然后求解w和b了(可以参考拉格朗日乘子法和KKT条件-CSDN博客)。

αi为拉格朗日乘子,函数K(x, xi) = φ(x),Tφ(x)是核函数。

补充:

硬间隔线性SVM

可以通过分类将样本点完全分类准确,不存在分类错误的情况,这种叫硬间隔,这类模型叫做硬间隔线性SVM。

软间隔线性SVM

可以通过分类将样本点不完全分类准确,存在少部分分类错误的情况,这叫软间隔,这类模型叫做软间隔线性SVM。

样本点本身不可分

将样本从原始空间映射到一个更高纬的空间中,使得样本在新的空间中线性可分,即:核函数。

参考:学习SVM,这篇文章就够了!(附详细代码) | 机器之心 (jiqizhixin.com)【机器学习基础】一文详尽之支持向量机(SVM)算法!-腾讯云开发者社区-腾讯云 (tencent.com)学习SVM,这篇文章就够了!(附详细代码) | 机器之心 (jiqizhixin.com)

相关推荐
极客代码2 小时前
Python Excel 操作全面总结
开发语言·python·机器学习·信息可视化·excel
攻城狮7号3 小时前
【3.5】贪心算法-解优势洗牌(类田忌赛马问题)
c++·算法·贪心算法
鸽芷咕3 小时前
【PyTorch常用库函数】一文向您详解 with torch.no_grad(): 的高效用法
人工智能·pytorch·python
Py巡航机6 小时前
机器学习||笔记
人工智能·笔记·机器学习
苦学数据结构6 小时前
25版王道数据结构课后习题详细分析 第五章 树与二叉树 5.3 二叉树的遍历和线索二叉树 选择题部分
数据结构·考研·算法
不断持续学习ing6 小时前
深度学习100问31:如何降低语言模型的困惑度
人工智能·机器学习·自然语言处理
张小生1806 小时前
《自然语言处理》—— 词向量之CountVectorizer方法实现
人工智能·自然语言处理·easyui
美狐美颜sdk6 小时前
从源码到产品:视频美颜SDK与直播美颜插件的开发详解
人工智能·性能优化·音视频·美颜sdk·第三方美颜sdk
爬行程序猿7 小时前
深度学习基础--损失函数
人工智能·深度学习
AI人工智能集结号7 小时前
IBM Speech to Text:发出语音识别请求
人工智能·语音识别·xcode