统计学习方法(第二版) 第七章 支持向量机 (第三节)

本节介绍非线性支持向量机与核函数,这部分还是比较难的数学功底需要比较深厚。

目录

前言

一、为什么映射到高维线性可分。

二、核技巧

三、正定核的充要条件

四、常用核函数

五、非线性支持向量机

总结


前言

对解线性可分问题,线性支持向量机是一种非常好的分类方法,但是在很多情况中都是线性不可分的,那么又该怎么处理呢?

数学家最常用的思想就是将问题转化成以被解决的问题,那对于非线性可分的问题,怎样转化成线性可分的问题呢?

这里就有一个重要结论:在低维一个线性不可分的数据集映射到高维线性可分的概率越大,如果映射到无穷维,可认为线性可分的概率为一,即一定能找到一个超平面使数据可分。

这就是非线性支持向量机与核函数的思想应用。

一、为什么映射到高维线性可分。

初始有A、B、C、D四个点,颜色代表分类,在一维的角度我们没法找到一个点使得两类点线性可分,但经过y = x^2的映射到二维空间,我们可以看到数据集线性可分了。一维映射到二维。

二维映射到三维。

二、核技巧

三、正定核的充要条件

这部分还是有看不懂,数学基础知识还是比较弱,只简单介绍少核函数需要满足什么条件。

这里用线性代数的知识很好证明,不多说。Gram矩阵就是内积矩阵,所以是对称矩阵。

四、常用核函数

五、非线性支持向量机


总结

主要介绍非线性支持向量机与核函数方法,为什么核技巧要用到原问题的对偶问题来求解呢?因为可以大幅度减少计算量。下一节介绍优化算法,呜呜真是太难了,坚持住!

相关推荐
少林码僧2 分钟前
2.29 XGBoost、LightGBM、CatBoost对比:三大梯度提升框架选型指南
人工智能·机器学习·ai·数据挖掘·数据分析·回归
喝拿铁写前端4 分钟前
当 AI 会写代码之后,我们应该怎么“管”它?
前端·人工智能
春日见7 分钟前
控制算法:PP(纯跟踪)算法
linux·人工智能·驱动开发·算法·机器学习
智者知已应修善业11 分钟前
【编写函数求表达式的值】2024-4-3
c语言·c++·经验分享·笔记·算法
沫儿笙15 分钟前
ABB焊接机器人混合气体节气方案
人工智能·机器人
余俊晖18 分钟前
多页文档理解强化学习设计思路:DocR1奖励函数设计与数据构建思路
人工智能·语言模型·自然语言处理
Yeats_Liao20 分钟前
MindSpore开发之路(二十六):系列总结与学习路径展望
人工智能·深度学习·学习·机器学习
sinat_2869451922 分钟前
opencode
人工智能·算法·chatgpt
gorgeous(๑>؂<๑)26 分钟前
【中科院-张启超组-AAAI26】WorldRFT: 用于自动驾驶的带强化微调的潜在世界模型规划
人工智能·机器学习·自动驾驶
min18112345632 分钟前
PC端零基础跨职能流程图制作教程
大数据·人工智能·信息可视化·架构·流程图