统计学习方法(第二版) 第七章 支持向量机(第二节)

本节介绍线性可分支持向量机与软间隔最大化。


前言

回顾:

统计学习方法(第二版) 第七章 拉格朗日对偶性-CSDN博客

统计学习方法(第二版) 第七章 支持向量机(第一节)-CSDN博客

第一节学习线性可分支持向量机,对线性不可分的数据是不适用的,因为不是所有数据集都满足约束条件,也就是说对于约束条件无解。为了扩展到线性不可分问题,我们需要将硬间隔最大化改为软间隔最大化。

为什么研究线性可分支持向量机和软间隔最大化?

因为假设现实的数据集分布是线性可分得,但在实际对数据的获取可能存在偏差,导致数据集的分离边界模糊,并不是一个完全线性可分的数据集,这时为了得到模型和提高模型的泛化能力,需要对数据集进行一定的容忍,也就是加入一定的正则项,防止过拟合。


一、线性支持向量机

经过上一节的学习,这部分理解起来会更加容易。

二、学习的对偶算法

统计学习方法(第二版) 第七章 拉格朗日对偶性-CSDN博客

三、支持向量

线性可分支持向量机与软间隔最大化的支持向量与硬间隔最大化不同,其支持向量包括:在分类边界内部的点,在分类边界上和在分类边界以外误分类的点。

这里对支持向量的个人理解:

支持向量是对分类边界取到重要作用的向量(数据),故在硬间隔最大化时,由于数据集线性可分,对分类边界取决定性作用的是在分类边界上的点,而在软间隔最大化,数据集不是完全线性可分的,故对分类边界其决定作用的是在分类边界内部。在分类边界上和在分类边界以外的向量(数据)。

四.合页损失函数


总结

本节主要介绍线性可分支持向量机与软间隔最大化,学习问题和学习的对偶算法,以及软间隔最大化下的支持向量,最后简单介绍一下合页损失函数下的支持向量机。

相关推荐
时空自由民.1 分钟前
三个按键的,短按1S,长按3S,单击,双击,三击的检测程序
大数据·数据库·计算机网络·算法
dog2505 分钟前
圆锥曲线命题的定义和证明
网络·算法·php
bzmK1DTbd6 分钟前
Java在人工智能:TensorFlow Java API的使用
java·人工智能·tensorflow
wangqiaowq10 分钟前
模型合并,转换,量化压缩,部署
人工智能·深度学习
IT猿手16 分钟前
光伏模型参数估计:山羊优化算法(Goat Optimization Algorithm, GOA)求解光伏模型参数辨识问题,免费提供完整MATLAB代码链接
开发语言·算法·matlab·智能优化算法·光伏模型参数估计·光伏模型参数辨识·最新群智能算法
Michaelwubo20 分钟前
openspec业务SDD驱动开发
人工智能·vibe code
GEO索引未来25 分钟前
大胆预测:国家会这样对GEO行业进行监管
大数据·人工智能·gpt·ai·chatgpt
闵孚龙26 分钟前
Prompt工程到底怎么做?从“会提问”到“能落地”的完整方法论
人工智能·prompt
AI人工智能+27 分钟前
文档抽取系统通过OCR与大语言模型融合技术,将非结构化文档(如合同、保单、表格)自动转换为结构化数据
人工智能·语言模型·ocr·文档抽取
深海鱼在掘金28 分钟前
深入浅出 LangChain —— 第十四章:可观测性与生产运维
人工智能·langchain·agent