机器学习实操 第一部分 机器学习基础 第5章 支持向量机(SVM)

机器学习实操 第一部分 机器学习基础 第5章 支持向量机(SVM)

内容概要

第5章深入介绍了支持向量机(SVM),这是一种功能强大且应用广泛的机器学习模型。SVM适用于线性或非线性分类、回归以及 novelty detection。本章详细讲解了SVM的核心概念、训练方法以及在不同任务中的应用。通过理论和实践相结合的方式,读者将掌握如何使用SVM解决实际问题。

主要内容

  1. 线性SVM分类

    • 硬间隔分类:在数据线性可分的情况下,寻找能够最大化间隔的决策边界。
    • 软间隔分类:允许一些数据点位于间隔内或错误分类,以提高模型的泛化能力。通过调整正则化参数C来平衡间隔大小和容许的间隔违例。
  2. 非线性SVM分类

    • 多项式核:通过添加多项式特征将数据映射到高维空间,使其线性可分。
    • 高斯RBF核:利用径向基函数(RBF)核技巧,将数据映射到无限维空间,从而处理复杂的非线性关系。
    • 相似性特征:通过计算数据点与特定地标(landmark)的相似性来构造新特征。
  3. SVM回归

    • 线性SVM回归:在回归任务中,SVM尝试拟合一个尽可能多的数据点位于其"街道"上的模型,同时限制间隔违例。
    • 非线性SVM回归:使用核技巧来处理非线性回归问题。
  4. SVM的数学原理

    • 硬间隔和软间隔优化问题:通过二次规划(QP)问题来求解SVM的最优参数。
    • 对偶问题:介绍SVM的对偶形式,以及如何通过核技巧来高效解决高维空间中的分类问题。
  5. 算法选择和计算复杂度

    • LinearSVC:适用于线性SVM分类,计算复杂度较低,适合大规模数据集。
    • SVC:支持核技巧,适用于中小型非线性数据集,但计算复杂度较高。
    • SGDClassifier:使用随机梯度下降,适合在线学习和大规模数据集。

关键代码和算法

5.1 线性SVM分类

python 复制代码
from sklearn.datasets import load_iris
from sklearn.pipeline import make_pipeline
from sklearn.preprocessing import StandardScaler
from sklearn.svm import LinearSVC

# 加载数据
iris = load_iris(as_frame=True)
X = iris.data[["petal length (cm)", "petal width (cm)"]].values
y = (iris.target == 2)  # Iris virginica

# 创建并训练线性SVM分类器
svm_clf = make_pipeline(StandardScaler(), LinearSVC(C=1, random_state=42))
svm_clf.fit(X, y)

# 预测
X_new = [[5.5, 1.7], [5.0, 1.5]]
svm_clf.predict(X_new)

5.2 非线性SVM分类

python 复制代码
from sklearn.svm import SVC
from sklearn.datasets import make_moons

# 生成非线性数据
X, y = make_moons(n_samples=100, noise=0.15, random_state=42)

# 使用多项式核的SVM分类器
poly_kernel_svm_clf = make_pipeline(
    StandardScaler(),
    SVC(kernel="poly", degree=3, coef0=1, C=5)
)
poly_kernel_svm_clf.fit(X, y)

# 使用高斯RBF核的SVM分类器
rbf_kernel_svm_clf = make_pipeline(
    StandardScaler(),
    SVC(kernel="rbf", gamma=5, C=0.001)
)
rbf_kernel_svm_clf.fit(X, y)

5.3 SVM回归

python 复制代码
from sklearn.svm import LinearSVR, SVR

# 线性SVM回归
svm_reg = make_pipeline(StandardScaler(), LinearSVR(epsilon=0.5, random_state=42))
svm_reg.fit(X, y)

# 非线性SVM回归
svm_poly_reg = make_pipeline(
    StandardScaler(),
    SVR(kernel="poly", degree=2, C=0.01, epsilon=0.1)
)
svm_poly_reg.fit(X, y)

精彩语录

  1. 中文 :SVM在小到中等规模的非线性数据集上表现出色,特别是对于分类任务。
    英文原文 :SVMs shine with small to medium-sized nonlinear datasets (i.e., hundreds to thousands of instances), especially for classification tasks.
    解释:强调了SVM在处理中等规模非线性数据集时的优势。

  2. 中文 :SVM对特征的尺度敏感,因此特征缩放是必要的。
    英文原文 :SVMs are sensitive to the feature scales.
    解释:指出特征缩放对SVM性能的重要性。

  3. 中文 :软间隔分类通过引入松弛变量来允许一定程度的间隔违例,从而提高模型的泛化能力。
    英文原文 :Soft margin classification allows some margin violations to improve the model's generalization.
    解释:介绍了软间隔分类的核心思想。

  4. 中文 :核技巧使得SVM能够在高维空间中高效地进行分类,而无需显式地计算特征映射。
    英文原文 :The kernel trick makes it possible to get the same result as if you had added many polynomial features, even with a very high degree, without actually having to add them.
    解释:解释了核技巧的工作原理及其优势。

  5. 中文 :SVM回归通过调整间隔的大小来平衡模型的复杂度和预测误差。
    英文原文 :SVM regression tries to fit as many instances as possible on the street while limiting margin violations.
    解释:总结了SVM回归的目标和方法。

总结

通过本章的学习,读者将掌握支持向量机的核心概念和应用方法。这些内容包括线性SVM分类、软间隔分类、非线性SVM分类(通过多项式核和高斯RBF核)、SVM回归以及核技巧的应用。这些技能使读者能够使用SVM解决各种实际问题,包括分类和回归任务。

相关推荐
开利网络5 分钟前
合规底线:健康产品营销的红线与避坑指南
大数据·前端·人工智能·云计算·1024程序员节
非著名架构师18 分钟前
量化“天气风险”:金融与保险机构如何利用气候大数据实现精准定价与投资决策
大数据·人工智能·新能源风光提高精度·疾风气象大模型4.0
熙梦数字化1 小时前
2025汽车零部件行业数字化转型落地方案
大数据·人工智能·汽车
刘海东刘海东1 小时前
逻辑方程结构图语言的机器实现(草稿)
人工智能
亮剑20181 小时前
第2节:程序逻辑与控制流——让程序“思考”
开发语言·c++·人工智能
hixiong1231 小时前
C# OpenCVSharp使用 读光-票证检测矫正模型
人工智能·opencv·c#
大千AI助手1 小时前
HotpotQA:推动多跳推理问答发展的标杆数据集
人工智能·神经网络·llm·qa·大千ai助手·hotpotqa·多跳推理能力
红尘炼丹客2 小时前
《DeepSeek-OCR: Contexts Optical Compression》速览
人工智能·python·自然语言处理·ocr
TiAmo zhang2 小时前
现代C++的AI革命:C++20/C++23核心特性解析与实战应用
c++·人工智能·c++20
mwq301232 小时前
从傅里叶变换到 RoPE:解构位置编码的数学灵魂
人工智能