机器学习实操 第一部分 机器学习基础 第5章 支持向量机(SVM)

机器学习实操 第一部分 机器学习基础 第5章 支持向量机(SVM)

内容概要

第5章深入介绍了支持向量机(SVM),这是一种功能强大且应用广泛的机器学习模型。SVM适用于线性或非线性分类、回归以及 novelty detection。本章详细讲解了SVM的核心概念、训练方法以及在不同任务中的应用。通过理论和实践相结合的方式,读者将掌握如何使用SVM解决实际问题。

主要内容

  1. 线性SVM分类

    • 硬间隔分类:在数据线性可分的情况下,寻找能够最大化间隔的决策边界。
    • 软间隔分类:允许一些数据点位于间隔内或错误分类,以提高模型的泛化能力。通过调整正则化参数C来平衡间隔大小和容许的间隔违例。
  2. 非线性SVM分类

    • 多项式核:通过添加多项式特征将数据映射到高维空间,使其线性可分。
    • 高斯RBF核:利用径向基函数(RBF)核技巧,将数据映射到无限维空间,从而处理复杂的非线性关系。
    • 相似性特征:通过计算数据点与特定地标(landmark)的相似性来构造新特征。
  3. SVM回归

    • 线性SVM回归:在回归任务中,SVM尝试拟合一个尽可能多的数据点位于其"街道"上的模型,同时限制间隔违例。
    • 非线性SVM回归:使用核技巧来处理非线性回归问题。
  4. SVM的数学原理

    • 硬间隔和软间隔优化问题:通过二次规划(QP)问题来求解SVM的最优参数。
    • 对偶问题:介绍SVM的对偶形式,以及如何通过核技巧来高效解决高维空间中的分类问题。
  5. 算法选择和计算复杂度

    • LinearSVC:适用于线性SVM分类,计算复杂度较低,适合大规模数据集。
    • SVC:支持核技巧,适用于中小型非线性数据集,但计算复杂度较高。
    • SGDClassifier:使用随机梯度下降,适合在线学习和大规模数据集。

关键代码和算法

5.1 线性SVM分类

python 复制代码
from sklearn.datasets import load_iris
from sklearn.pipeline import make_pipeline
from sklearn.preprocessing import StandardScaler
from sklearn.svm import LinearSVC

# 加载数据
iris = load_iris(as_frame=True)
X = iris.data[["petal length (cm)", "petal width (cm)"]].values
y = (iris.target == 2)  # Iris virginica

# 创建并训练线性SVM分类器
svm_clf = make_pipeline(StandardScaler(), LinearSVC(C=1, random_state=42))
svm_clf.fit(X, y)

# 预测
X_new = [[5.5, 1.7], [5.0, 1.5]]
svm_clf.predict(X_new)

5.2 非线性SVM分类

python 复制代码
from sklearn.svm import SVC
from sklearn.datasets import make_moons

# 生成非线性数据
X, y = make_moons(n_samples=100, noise=0.15, random_state=42)

# 使用多项式核的SVM分类器
poly_kernel_svm_clf = make_pipeline(
    StandardScaler(),
    SVC(kernel="poly", degree=3, coef0=1, C=5)
)
poly_kernel_svm_clf.fit(X, y)

# 使用高斯RBF核的SVM分类器
rbf_kernel_svm_clf = make_pipeline(
    StandardScaler(),
    SVC(kernel="rbf", gamma=5, C=0.001)
)
rbf_kernel_svm_clf.fit(X, y)

5.3 SVM回归

python 复制代码
from sklearn.svm import LinearSVR, SVR

# 线性SVM回归
svm_reg = make_pipeline(StandardScaler(), LinearSVR(epsilon=0.5, random_state=42))
svm_reg.fit(X, y)

# 非线性SVM回归
svm_poly_reg = make_pipeline(
    StandardScaler(),
    SVR(kernel="poly", degree=2, C=0.01, epsilon=0.1)
)
svm_poly_reg.fit(X, y)

精彩语录

  1. 中文 :SVM在小到中等规模的非线性数据集上表现出色,特别是对于分类任务。
    英文原文 :SVMs shine with small to medium-sized nonlinear datasets (i.e., hundreds to thousands of instances), especially for classification tasks.
    解释:强调了SVM在处理中等规模非线性数据集时的优势。

  2. 中文 :SVM对特征的尺度敏感,因此特征缩放是必要的。
    英文原文 :SVMs are sensitive to the feature scales.
    解释:指出特征缩放对SVM性能的重要性。

  3. 中文 :软间隔分类通过引入松弛变量来允许一定程度的间隔违例,从而提高模型的泛化能力。
    英文原文 :Soft margin classification allows some margin violations to improve the model's generalization.
    解释:介绍了软间隔分类的核心思想。

  4. 中文 :核技巧使得SVM能够在高维空间中高效地进行分类,而无需显式地计算特征映射。
    英文原文 :The kernel trick makes it possible to get the same result as if you had added many polynomial features, even with a very high degree, without actually having to add them.
    解释:解释了核技巧的工作原理及其优势。

  5. 中文 :SVM回归通过调整间隔的大小来平衡模型的复杂度和预测误差。
    英文原文 :SVM regression tries to fit as many instances as possible on the street while limiting margin violations.
    解释:总结了SVM回归的目标和方法。

总结

通过本章的学习,读者将掌握支持向量机的核心概念和应用方法。这些内容包括线性SVM分类、软间隔分类、非线性SVM分类(通过多项式核和高斯RBF核)、SVM回归以及核技巧的应用。这些技能使读者能够使用SVM解决各种实际问题,包括分类和回归任务。

相关推荐
飞哥数智坊4 小时前
我的“龙虾”罢工了!正好对比下GLM、MiniMax、Kimi 3家谁更香
人工智能
风象南5 小时前
很多人说,AI 让技术平权了,小白也能乱杀老师傅 ?
人工智能·后端
董董灿是个攻城狮7 小时前
大模型连载1:了解 Token
人工智能
RoyLin9 小时前
沉睡三十年的标准:HTTP 402、生成式 UI 与智能体原生软件的时代
人工智能
needn11 小时前
TRAE为什么要发布SOLO版本?
人工智能·ai编程
毅航11 小时前
自然语言处理发展史:从规则、统计到深度学习
人工智能·后端
前端付豪12 小时前
LangChain链 写一篇完美推文?用SequencialChain链接不同的组件
人工智能·python·langchain
ursazoo12 小时前
写了一份 7000字指南,让 AI 帮我消化每天的信息流
人工智能·开源·github
_志哥_15 小时前
Superpowers 技术指南:让 AI 编程助手拥有超能力
人工智能·ai编程·测试
YongGit16 小时前
OpenClaw 本地 AI 助手完全指南:飞书接入 + 远程部署实战
人工智能