【AI知识】有监督学习分类任务之支持向量机

1.支持向量机概念

支持向量机(Support Vector Machine, SVM) 是一种有监督学习算法,主要用于分类任务(也可用于回归任务,即支持向量回归,SVR)。SVM的核心思想是找到一个最优的超平面(hyperplane) 来将不同类别的数据分开,且最大化类别间边界(间隔),从而提高模型的泛化能力。

如,在二分类问题中,SVM的目标是找到一个最优的超平面(即决策边界),该平面能够将数据集中的正负类样本分开,下面都以二分类问题为例说明:

支持向量机的几个概念:

  • 超平面(Hyperplane) : 超平面将数据空间分割成两个部分。在二维空间中,超平面是一条直线;在三维空间中,超平面是一个平面;在高维空间中,超平面是一个维度比数据空间少1的超平面。对于一个二维空间中的分类问题,SVM的任务就是找到一个直线(超平面),将正负类样本分开。

  • 最大化间隔: SVM的关键思想是最大化分隔正负类的间隔 。间隔是指从数据点到超平面的垂直距离。在SVM中,支持向量是距离决策边界最近的那些点,这些点决定了超平面的最优位置。假设我们的数据点有两个类别,+1 和 -1 类,我们希望找到一个超平面,使得这个平面把两类数据完全分开,并且两类数据到超平面的距离最大。

细节我有点看不懂了。。。。

SVM实例+可视化:

bash 复制代码
import numpy as np
import matplotlib.pyplot as plt
from sklearn import datasets
from sklearn.svm import SVC
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler

# 创建线性可分数据集
def generate_linear_data():
    # 使用sklearn生成一个线性可分的数据集
    X, y = datasets.make_classification(n_samples=200, n_features=2, n_informative=2,
                                         n_redundant=0, n_clusters_per_class=1, class_sep=2)
    return X, y

# 创建非线性可分数据集
def generate_nonlinear_data():
    # 使用sklearn生成一个非线性可分的数据集
    # 它生成的是一个包含两个类别的数据集,其中样本数据分布在两个同心圆形状的区域内
    X, y = datasets.make_circles(n_samples=200, noise=0.1, factor=0.5)
    return X, y

# 绘制SVM的决策边界
def plot_decision_boundary(X, y, clf):
    h = 0.02  # 网格间距
    x_min, x_max = X[:, 0].min() - 1, X[:, 0].max() + 1
    y_min, y_max = X[:, 1].min() - 1, X[:, 1].max() + 1
    xx, yy = np.meshgrid(np.arange(x_min, x_max, h), np.arange(y_min, y_max, h))

    Z = clf.predict(np.c_[xx.ravel(), yy.ravel()])
    Z = Z.reshape(xx.shape)

    plt.contourf(xx, yy, Z, alpha=0.3)
    plt.scatter(X[:, 0], X[:, 1], c=y, marker='o', edgecolors='k', s=50)
    plt.title("SVM Decision Boundary")
    plt.show()

# 训练并可视化SVM模型
def train_and_visualize(X, y, kernel_type='linear'):
    # 切分数据集为训练集和测试集
    X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)

    # 数据标准化
    scaler = StandardScaler()
    X_train = scaler.fit_transform(X_train)
    X_test = scaler.transform(X_test)

    # 初始化SVM分类器
    clf = SVC(kernel=kernel_type)
    
    # 训练SVM
    clf.fit(X_train, y_train)

    # 打印支持向量信息
    print(f"Number of support vectors: {len(clf.support_)}")

    # 可视化决策边界
    plot_decision_boundary(X_train, y_train, clf)

# 主函数
def main():
    # 1. 线性可分数据
    print("Training with linearly separable data...")
    X_linear, y_linear = generate_linear_data()
    train_and_visualize(X_linear, y_linear, kernel_type='linear')

    # 2. 非线性可分数据
    print("Training with non-linearly separable data...")
    X_nonlinear, y_nonlinear = generate_nonlinear_data()
    train_and_visualize(X_nonlinear, y_nonlinear, kernel_type='rbf')

if __name__ == "__main__":
    main()


相关推荐
不做无法实现的梦~4 分钟前
适合新手小白入门实现slam建图和路径规划的详细教程
人工智能·机器人·自动驾驶
热爱编程的小白白13 分钟前
IPIDEA海外代理助力-Youtube视频AI领域选题数据获取实践
人工智能·音视频
高洁0128 分钟前
面向强化学习的状态空间建模:RSSM的介绍和PyTorch实现(3)
人工智能·python·深度学习·神经网络·transformer
apocalypsx1 小时前
深度学习-深度卷积神经网络AlexNet
人工智能·深度学习·cnn
leafff1231 小时前
一文了解LLM应用架构:从Prompt到Multi-Agent
人工智能·架构·prompt
无风听海2 小时前
神经网络之特征值与特征向量
人工智能·深度学习·神经网络
艾莉丝努力练剑2 小时前
【C++:红黑树】深入理解红黑树的平衡之道:从原理、变色、旋转到完整实现代码
大数据·开发语言·c++·人工智能·红黑树
九章云极AladdinEdu2 小时前
论文分享 | BARD-GS:基于高斯泼溅的模糊感知动态场景重建
人工智能·新视角合成·动态场景重建·运动模糊处理·3d高斯泼溅·模糊感知建模·真实世界数据集
希露菲叶特格雷拉特2 小时前
PyTorch深度学习笔记(二十)(模型验证测试)
人工智能·pytorch·笔记
NewsMash2 小时前
PyTorch之父发离职长文,告别Meta
人工智能·pytorch·python