AI学习指南数学工具篇-支持向量机(SVM)中的核方法

AI学习指南数学工具篇-支持向量机(SVM)中的核方法

在机器学习领域,支持向量机(SVM)是一个经典且强大的分类算法。它不仅可以处理线性可分情况下的数据,还能应用于非线性可分的情况,这得益于SVM中的核方法。本文将重点介绍SVM中的核方法,包括线性可分支持向量机(Linearly Separable SVM)和软间隔支持向量机(Soft Margin SVM),并给出详细的示例。

线性可分支持向量机(Linearly Separable SVM)

当数据是线性可分的时候,我们可以使用线性核来构建支持向量机模型。线性核可以将数据映射到高维空间中,使得数据变得线性可分。下面我们通过一个简单的示例来说明在线性可分情况下如何应用线性核。

假设我们有一个二维的数据集,其中包含两类数据,分别用红色圆点和蓝色三角形表示。我们希望构建一个支持向量机模型来对这些数据进行分类。首先,我们可以通过绘制数据集的散点图来观察数据的分布情况。

python 复制代码
import matplotlib.pyplot as plt
import numpy as np

# 生成示例数据
np.random.seed(0)
X = np.r_[np.random.randn(20, 2) - [2, 2], np.random.randn(20, 2) + [2, 2]]
Y = [-1] * 20 + [1] * 20

# 绘制散点图
plt.scatter(X[:20, 0], X[:20, 1], color="r", marker="o", label="Class -1")
plt.scatter(X[20:, 0], X[20:, 1], color="b", marker="^", label="Class 1")
plt.xlabel("X1")
plt.ylabel("X2")
plt.legend()
plt.show()

从散点图中可以看出,这些数据是线性可分的。接下来,我们可以使用sklearn库来构建支持向量机模型,并通过线性核进行训练。

python 复制代码
from sklearn.svm import SVC

# 构建支持向量机模型
model = SVC(kernel="linear")
model.fit(X, Y)

通过构建SVM模型,并使用线性核进行训练,我们得到了一个线性可分支持向量机模型。接下来,我们可以绘制决策边界和支持向量来可视化模型的效果。

python 复制代码
# 绘制决策边界和支持向量
def plot_decision_boundary(X, y, model, title):
    plt.scatter(X[y==-1][:, 0], X[y==-1][:, 1], color="r", marker="o", label="Class -1")
    plt.scatter(X[y==1][:, 0], X[y==1][:, 1], color="b", marker="^", label="Class 1")
    plt.xlabel("X1")
    plt.ylabel("X2")

    # 绘制决策边界
    ax = plt.gca()
    xlim = ax.get_xlim()
    ylim = ax.get_ylim()

    xx, yy = np.meshgrid(np.linspace(*xlim, num=50),
                         np.linspace(*ylim, num=50))
    Z = model.decision_function(np.c_[xx.ravel(), yy.ravel()])
    Z = Z.reshape(xx.shape)

    plt.contour(xx, yy, Z, colors="k", levels=[-1, 0, 1], alpha=0.5,
                linestyles=["--", "-", "--"])

    # 绘制支持向量
    plt.scatter(model.support_vectors_[:, 0], model.support_vectors_[:, 1], s=100,
                linewidth=1, facecolors="none", edgecolors="k")
    plt.legend()
    plt.title(title)
    plt.show()

# 可视化决策边界和支持向量
plot_decision_boundary(X, Y, model, "Linearly Separable SVM with Linear Kernel")

从可视化结果中可以看出,我们得到了一个线性可分支持向量机模型,并且它能够很好地将两类数据分开。

软间隔支持向量机(Soft Margin SVM)

在现实的数据集中,很多情况下数据并不是完全线性可分的,这时就需要使用软间隔支持向量机来处理。软间隔支持向量机允许一定程度上的分类错误,这通过引入惩罚参数C来实现。在非线性可分情况下,我们可以通过使用非线性核函数来将数据映射到更高维的空间中,以实现更好的分类效果。下面我们通过一个示例来介绍在非线性可分情况下如何应用非线性核函数。

假设我们有一个二维的数据集,其中包含两类数据,我们希望构建一个软间隔支持向量机模型来对这些数据进行分类。首先,我们可以通过绘制数据集的散点图来观察数据的分布情况。

python 复制代码
import matplotlib.pyplot as plt
import numpy as np

# 生成示例数据
np.random.seed(0)
X = np.r_[np.random.randn(20, 2) - [2, 2], np.random.randn(20, 2) + [2, 2]]
Y = [-1] * 20 + [1] * 20

# 绘制散点图
plt.scatter(X[:20, 0], X[:20, 1], color="r", marker="o", label="Class -1")
plt.scatter(X[20:, 0], X[20:, 1], color="b", marker="^", label="Class 1")
plt.xlabel("X1")
plt.ylabel("X2")
plt.legend()
plt.show()

从散点图中可以看出,这些数据在二维空间中并不是线性可分的。接下来,我们可以使用sklearn库来构建软间隔支持向量机模型,并通过非线性核进行训练。

python 复制代码
from sklearn.svm import SVC

# 构建支持向量机模型
model = SVC(kernel="rbf", C=1, gamma=1)
model.fit(X, Y)

通过构建SVM模型,并使用径向基核进行训练,我们得到了一个软间隔支持向量机模型。下面我们通过可视化决策边界和支持向量来观察模型的效果。

python 复制代码
# 可视化决策边界和支持向量
plot_decision_boundary(X, Y, model, "Soft Margin SVM with RBF Kernel")

通过引入非线性核函数和惩罚参数C,我们得到了一个在非线性可分情况下效果良好的软间隔支持向量机模型。

以上是关于SVM中的核方法的详细介绍。通过使用线性核和非线性核,SVM能够处理不同类型的数据,并在分类问题中取得良好的效果。希望本文能够帮助读者更加深入地理解SVM中的核方法,并在实际问题中应用它们。

相关推荐
Topstip1 小时前
iOS 19 重大更新泄露,将带来更“聪明”的 Siri 挑战 ChatGPT
人工智能·ios·ai·chatgpt
Baihai IDP4 小时前
从 Llama 1 到 3.1:Llama 模型架构演进详解
人工智能·ai·开源·llm·llama
Elastic 中国社区官方博客4 小时前
Elasticsearch:Retrievers 介绍
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
linmoo19865 小时前
java脚手架系列16-AI大模型集成
java·人工智能·ai·大模型·通义千问·qwen·脚手架
梦幻加菲猫20 小时前
加菲工具 - 好用免费的在线工具集合
ai·工具·导航·网站导航
标贝科技1 天前
标贝科技:自动驾驶中的数据标注类别分享
数据库·人工智能·ai·数据挖掘·数据分析·自动驾驶·数据标注
JovaZou1 天前
[2024.11.17-24] 一周科技速报
人工智能·科技·ai·ar
倔强的石头1061 天前
DAMODEL丹摩|《ChatGLM-6B 在丹摩智算平台的部署与使用指南》
人工智能·ai
Florian2 天前
解读Graph+AI白皮书:LLM浪潮下,Graph尚有何为?
ai·llm·graph·图计算·白皮书
Ciderw2 天前
AI 在软件开发流程中的优势、挑战及应对策略
人工智能·ai