绘制近似线性可分支持向量机的分类边界和支持向量

python 复制代码
def plot_classifier(X1_train, X2_train, clf):
    plt.plot(X1_train[:,0], X1_train[:,1], "ro")
    plt.plot(X2_train[:,0], X2_train[:,1], "go")
    plt.scatter(clf.spv[:,0], clf.spv[:,1],
                s=100, c="y", edgecolors="b", label="support vector")

    X1, X2 = np.meshgrid(np.linspace(-4,4,50), np.linspace(-4,4,50))
    X = np.array([[x1, x2] for x1, x2 in zip(np.ravel(X1), np.ravel(X2))])
    Z = clf.project(X).reshape(X1.shape)
    plt.contour(X1, X2, Z, [0.0], colors='k', linewidths=1, origin='lower')
    plt.contour(X1, X2, Z + 1, [0.0], colors='grey', linewidths=1, origin='lower')
    plt.contour(X1, X2, Z - 1, [0.0], colors='grey', linewidths=1, origin='lower')
    plt.legend()
    plt.show()

这段代码定义了一个函数 plot_classifier,用于可视化支持向量机(SVM)的分类结果、支持向量和决策边界。具体来说,它绘制了两个训练集的点,标记了支持向量,并显示了分类器的决策边界和间隔边界。让我们逐步解释每一部分的功能:

1. 绘制训练数据点

python 复制代码
plt.plot(X1_train[:,0], X1_train[:,1], "ro")
plt.plot(X2_train[:,0], X2_train[:,1], "go")
  • X1_trainX2_train :分别是属于两个不同类别的训练数据集。假设 X1_train 代表第一类的数据,X2_train 代表第二类的数据。每个数据点有两个特征,所以它们是二维的。
  • 使用 plt.plot 绘制训练数据:
    • "ro" 用红色圆圈绘制第一类训练数据点。
    • "go" 用绿色圆圈绘制第二类训练数据点。

2. 绘制支持向量

python 复制代码
plt.scatter(clf.spv[:,0], clf.spv[:,1],
            s=100, c="y", edgecolors="b", label="support vector")
  • clf.spv :这是训练好的 SVM 模型 clf 中的支持向量(spv),包含所有在训练过程中被识别为支持向量的样本点。
  • 使用 plt.scatter 绘制支持向量:
    • s=100:设置支持向量的大小。
    • c="y":支持向量的颜色设为黄色。
    • edgecolors="b":支持向量的边框颜色为蓝色。
    • label="support vector":用于图例标记支持向量。

3. 创建网格数据

python 复制代码
X1, X2 = np.meshgrid(np.linspace(-4, 4, 50), np.linspace(-4, 4, 50))
X = np.array([[x1, x2] for x1, x2 in zip(np.ravel(X1), np.ravel(X2))])
  • np.meshgrid :生成一个二维的网格数据,这些网格点用于绘制分类边界。np.linspace(-4, 4, 50) 表示生成从 -4 到 4 的 50 个等间隔点,X1X2 分别对应网格的横轴和纵轴坐标。
  • np.ravel(X1)np.ravel(X2):将网格点展平成一维数组,便于后续将每个网格点的坐标组合。
  • X :将网格点 ( x 1 , x 2 ) (x1, x2) (x1,x2) 组合成二维数组,作为分类器的输入,计算这些点的分类结果。

4. 计算网格上的分类结果

python 复制代码
Z = clf.project(X).reshape(X1.shape)
  • clf.project(X) :通过分类器 clf 对网格上的每个点 X X X 进行分类,返回的结果是分类器的决策函数值 f ( x ) = w T x + b f(x) = w^T x + b f(x)=wTx+b,用于确定分类边界。
  • Z :分类结果是一个形状与网格 X 1 X1 X1 和 X 2 X2 X2 相同的二维数组,用于绘制等高线图。

5. 绘制决策边界和间隔边界

python 复制代码
plt.contour(X1, X2, Z, [0.0], colors='k', linewidths=1, origin='lower')
plt.contour(X1, X2, Z + 1, [0.0], colors='grey', linewidths=1, origin='lower')
plt.contour(X1, X2, Z - 1, [0.0], colors='grey', linewidths=1, origin='lower')
  • plt.contour :用于绘制等高线图,显示分类器的决策边界和间隔边界。
    • Z:分类结果,其中 Z = 0 Z = 0 Z=0 表示决策边界(超平面),对应分类函数 f ( x ) = 0 f(x) = 0 f(x)=0。
    • Z + 1Z - 1:分别表示间隔边界 f ( x ) = 1 f(x) = 1 f(x)=1 和 f ( x ) = − 1 f(x) = -1 f(x)=−1。
    • colors='k':决策边界的颜色为黑色。
    • colors='grey':间隔边界的颜色为灰色。
    • linewidths=1:设置线条宽度。

6. 显示图例和绘图

python 复制代码
plt.legend()
plt.show()
  • plt.legend():显示图例,标注支持向量。
  • plt.show():展示完整的绘图结果。

总结

  • 输入数据点 :函数通过 plt.plot 绘制两个类别的训练数据点,红色代表第一类,绿色代表第二类。
  • 支持向量 :使用 plt.scatter 绘制支持向量,并用黄色标记、蓝色边框强调支持向量的重要性。
  • 分类边界 :通过 plt.contour 绘制决策边界(黑色)和间隔边界(灰色)。
  • 网格点预测:通过在二维网格上的预测,确定分类器的决策区域,并在图中可视化。
相关推荐
Damon小智几秒前
合合信息DocFlow产品解析与体验:人人可搭建的AI自动化单据处理工作流
图像处理·人工智能·深度学习·机器学习·ai·自动化·docflow
小虚竹几秒前
用AI辅导侄女大学物理的质点运动学问题
人工智能·chatgpt
猿类崛起@1 分钟前
百度千帆大模型实战:AI大模型开发的调用指南
人工智能·学习·百度·大模型·产品经理·大模型学习·大模型教程
sdaxue.com2 分钟前
人工智能就业方向及前景以及薪资水平
人工智能
寻道码路3 分钟前
探秘 Docling:多格式文档解析转换大揭秘,赋能 AI 应用新生态
人工智能·aigc·ai编程
健忘的派大星3 分钟前
【AI大模型】根据官方案例使用milvus向量数据库打造问答RAG系统
人工智能·ai·语言模型·llm·milvus·agi·rag
黑客-雨5 分钟前
从零开始:如何用Python训练一个AI模型(超详细教程)非常详细收藏我这一篇就够了!
开发语言·人工智能·python·大模型·ai产品经理·大模型学习·大模型入门
是Dream呀5 分钟前
引领AI发展潮流:打造大模型时代的安全与可信——CCF-CV企业交流会走进合合信息会议回顾
人工智能·安全·生成式ai
日出等日落6 分钟前
小白也能轻松上手的GPT-SoVITS AI语音克隆神器一键部署教程
人工智能·gpt
孤独且没人爱的纸鹤19 分钟前
【机器学习】深入无监督学习分裂型层次聚类的原理、算法结构与数学基础全方位解读,深度揭示其如何在数据空间中构建层次化聚类结构
人工智能·python·深度学习·机器学习·支持向量机·ai·聚类