【机器学习西瓜书学习笔记——支持向量机】

机器学习西瓜书学习笔记【第六章】

第六章 支持向量机

6.1 间隔与支持向量

**支持向量:**最靠近两条虚边界的向量叫做支持向量。

**间隔:**两个异类支持向量到超平面的距离之和称为间隔。

硬间隔最大化

支持向量机求的最优分离超平面,不仅要分类正确,而且要使得间隔最大化。

6.2 对偶问题

6.3核函数

非线性数据(非线性问题------>线性问题)

原理是将数据映射到高维数据,在高维空间线性可分。

从低维转换到高维,\\Phi 是转换函数。

定义

原始空间 中的向量作为输入向量 ,并返回特征空间 (转换后的数据空间,可能是高维)中向量的点积 的函数称为核函数

构建核函数

线性核函数

高斯核函数

应用

K近邻、支持向量机

优劣

优势
  • 核函数在某些特征空间通过点积的方式计算,但无需知道特征空间以及转换函数。这就是核函数的有用之处。
  • 使在高维空间中以极低的计算成本寻找线性关系成为可能,这是因为在特征空间中输入图像的内积可以在原始空间中计算出来
  • 不需要数据是真实的向量,可用于字符串、时序数据
劣势
  • 为给定的问题选择核函数可能很困难
  • 对于大型数据集,可能无法存储整个核函数矩阵,可能需要重新计算核函数

6.4 软间隔与正则化

软间隔

目的:提高模型对噪声和异常值的鲁棒性,从而获得更好的泛化能力。

正则化

防止出现过拟合现象

6.5支持向量回归(SVR)

SVM是要使到超平面最近的样本点的"距离"最大

SVR是要使到超平面最远的样本点的"距离"最小

函数间隔和几何间隔

两虚线之间的几何间隔 r=\\frac{d}{\\left \| W \\right \| } ,这里的d就为两虚线之间的函数间隔

SVR的原理

SVR在线性函数两侧制造了一个"间隔带",间距为ϵ(也叫容忍偏差,是一个由人工设定的经验值),对所有落入到间隔带内的样本不计算损失,也就是只有支持向量才会对其函数模型产生影响,最后通过最小化总损失和最大化间隔来得出优化后的模型。

如图所示,"管道"内样本对应 a = 0 a=0 a=0,为非支持向量;

位于"管壁"上的为边界支持向量, 0 < a < ϵ 0<a<ϵ 0<a<ϵ

位于"管道"之外的为非边界支持向量, a > ϵ a>ϵ a>ϵ (异常检测时,常从非边界支持向量中挑选异常点)

SVR数学模型

线性硬间隔SVR

不允许样本分类错误。

线性软间隔SVR

允许一定量的样本分类错误。

原因:在现实任务中,往往很难直接确定合适的 ϵ \epsilon ϵ ,确保大部分数据都能在间隔带内,而SVR希望所有训练数据都在间隔带内,所以加入松弛变量 ξ \xi ξ,从而使函数的间隔要求变的放松,也就是允许一些样本可以不在间隔带内。

相关推荐
2501_926978331 天前
AI的三次起落发展分析,及未来预测----理论5.0的应用
人工智能·经验分享·笔记·ai写作·agi
报错小能手1 天前
深入理解 Linux 物理内存管理
学习·操作系统
路小雨~1 天前
Transformer架构学习笔记:从数学推导到工程实现与主流变体
笔记·ai·transformer
zx_zx_1231 天前
哈希表的学习
学习·哈希算法·散列表
FAFU_kyp1 天前
Kimi Coding Plan API 集成问题与解决方案
学习
chaser&upper1 天前
【一起啃西瓜书】机器学习-期末复习(不挂科)
人工智能·机器学习·期末复习·学霸笔记
瓜瓜学Java1 天前
机器学习深度学习基础速成
人工智能·机器学习
d3y11 天前
机器学习之策略梯度
人工智能·机器学习·策略梯度·policy gradient
希潭实验室1 天前
第136篇:美国NSA的苹果手机“三角测量“后门的窃密模块分析 | 机器学习引擎识别照片信息
人工智能·机器学习·智能手机
call me Mike1 天前
双重机器学习之因果推断 | CATE条件平均处理效应估计:五大方法原理详解与模拟数据实战(python版)
人工智能·机器学习