机器学习课堂7用scikit-learn库训练SVM模型

1.用scikit-learn库训练SVM模型

代码

复制代码
#  2-11用scikit-learn库训练SVM模型
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
from sklearn import svm  # 导入sklearn

# 参数设置
m_train = 250  # 训练样本数量
svm_C = 100  # SVM的C值
svm_kernel = 'linear'  # SVM的核函数
# 读入酒驾检测数据集
df = pd.read_csv('alcohol_dataset.csv')
data = np.array(df)
m_all = np.shape(data)[0]  # 样本总数
d = np.shape(data)[1] - 1  # 输入特征的维数
m_test = m_all - m_train  # 测试数据集样本数量
# 把0标注替换为-1
data[:, d] = np.where(data[:, d] == 0, -1, data[:, d])
# 构造随机种子为指定值的随机数生成器,并对数据集中样本随机排序
rng = np.random.default_rng(1)
rng.shuffle(data)
mean = np.mean(data[0:m_train, 0:d], axis=0)  # 计算训练样本输入特征的均值
std = np.std(data[0:m_train, 0:d], axis=0, ddof=1)  # 计算训练样本输入特诊的标准差
data[:, 0:d] = (data[:, 0:d] - mean) / std  # 标准化所有样本的输入特征
# 划分数据集
X_train = data[0:m_train, 0:d]  # 训练集输入特征
X_test = data[m_train:, 0:d]  # 测试集输入特征
Y_train = data[0:m_train, d]  # 训练集目标值
Y_test = data[m_train:, d]  # 测试集目标值
#  SVM训练与预测
clf = svm.SVC(kernel=svm_kernel, C=svm_C)
clf.fit(X_train, Y_train)  # 训练
Y_train_hat = clf.predict(X_train)  # 训练数据集上的预测
Y_test_hat = clf.predict(X_test)  # 测试数据集上的预测
# 打印分类错误的数量
print('Trainset prediction errors=', np.sum(Y_train != Y_train_hat))
print('Testset prediction errors=', np.sum(Y_test != Y_test_hat))
# 训练数据集上的混淆矩阵
tp = np.sum(np.logical_and(Y_train == 1, Y_train_hat == 1))  # TP
fp = np.sum(np.logical_and(Y_train == -1, Y_train_hat == 1))  # FP
tn = np.sum(np.logical_and(Y_train == -1, Y_train_hat == -1))  # TN
fn = np.sum(np.logical_and(Y_train == 1, Y_train_hat == -1))  # FN
print(f'Trainset TP={tp},FP={fp},TN={tn},FN={fn}')
# 训练数据集上的召回率、精度、F1值
recall = tp / (tp + fn)
precision = tp / (tp + fp)
f1 = 2 * recall * precision / (recall + precision)
print(f'Trainset recall={recall:.3},presision={precision:.3},F1={f1:.3}')
# 测试数据集上的混淆矩阵
tp_test = np.sum(np.logical_and(Y_test == 1, Y_test_hat == 1))
fp_test = np.sum(np.logical_and(Y_test == -1, Y_test_hat == 1))
tn_test = np.sum(np.logical_and(Y_test == -1, Y_test_hat == -1))
fn_test = np.sum(np.logical_and(Y_test == 1, Y_test_hat == -1))
print(f'Trestset TP={tp_test},FP={fp_test},TN={tn_test},FN={fn_test}')
# 测试数据集上的召回率、精度、F1值
recall_test = tp_test / (tp_test + fn_test)
precision_test = tp_test / (tp_test + fp_test)
f1_test = 2 * recall_test * precision_test / (recall_test + precision_test)
print(f'Trainset recall={recall_test:.3},presision={precision_test:.3},F1={f1_test:.3}')

结果

2.SVM模型的分类错误数量随C值变化的曲线

复制代码
#  2-12画出SVM模型都分类错误数量随C值变化的曲线
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
from sklearn import svm  # 导入sklearn

# 参数设置
m_train = 250  # 训练样本数量
svm_kernel = 'poly'  # SVM的核函数
points_C = 70  # SVM的C值取值数量
step_C = 0.1  # C值的步长
# 读入酒驾检测数据集
df = pd.read_csv('alcohol_dataset.csv')
data = np.array(df)
m_all = np.shape(data)[0]  # 样本总数
d = np.shape(data)[1] - 1  # 输入特征的维数
m_test = m_all - m_train  # 测试数据集样本数量
# 把0标注替换为-1
data[:, d] = np.where(data[:, d] == 0, -1, data[:, d])
# 构造随机种子为指定值的随机数生成器,并对数据集中样本随机排序
rng = np.random.default_rng(1)
rng.shuffle(data)
mean = np.mean(data[0:m_train, 0:d], axis=0)  # 计算训练样本输入特征的均值
std = np.std(data[0:m_train, 0:d], axis=0, ddof=1)  # 计算训练样本输入特诊的标准差
data[:, 0:d] = (data[:, 0:d] - mean) / std  # 标准化所有样本的输入特征
# 划分数据集
X_train = data[0:m_train, 0:d]  # m_train*d维
X_test = data[m_train:, 0:d]  # m_test*d维
Y_train = data[0:m_train, d]  # m_train*1维
Y_test = data[m_train:, d]  # m_test*1维
#  用来保存两个数据集上的分类错误数量
train_errors = np.zeros(points_C)
test_errors = np.zeros(points_C)
#  C循环
for c in range(points_C):
    # 当前C值
    svm_C = (c + 1) * step_C
    # SVM训练与预测
    clf = svm.SVC(kernel=svm_kernel, C=svm_C)
    clf.fit(X_train, Y_train)  # 训练
    Y_train_hat = clf.predict(X_train)  # 训练数据集上的预测
    Y_test_hat = clf.predict(X_test)  # 测试数据集上的预测
    # 统计并保存两个数据集上的分类错误的数量
    train_errors[c] = np.sum(Y_train != Y_train_hat)
    test_errors[c] = np.sum(Y_test != Y_test_hat)
# 画出两条分类错误线
plt.plot(np.arange(1, points_C + 1) * step_C, train_errors, 'r-o', linewidth=2, markersize=5)
plt.plot(np.arange(1, points_C + 1) * step_C, test_errors, 'r-o', linewidth=2, markersize=5)
plt.ylabel('Number of errors')
plt.xlabel('C')
plt.legend(['Traininng dataset', 'Test dataset'])
plt.annotate('Underfitting', (0.3, 18), fontsize=12)
plt.annotate('Best fit', (2.5, 18), fontsize=12)
plt.annotate('Overfitting', (4.8, 18), fontsize=12)
plt.plot((0.9, 0.9), (-2, 15), '--k')
plt.plot((4.3, 4.3), (-2, 15), '--k')
plt.axis([0, 7, -2, 37])
plt.show()

结果图

相关推荐
搞科研的小刘选手20 小时前
【经济方向专题会议】第二届经济数据分析与人工智能国际学术会议 (EDAI 2025)
人工智能·机器学习·网络安全·大数据分析·经济·经济数据分析·绿色经济
StarPrayers.1 天前
机器学习中的等高线
人工智能·机器学习
JJJJ_iii1 天前
【机器学习10】项目生命周期、偏斜类别评估、决策树
人工智能·python·深度学习·算法·决策树·机器学习
rgb2gray1 天前
共享自行车与电动共享自行车使用中建成环境影响的对比研究:基于合肥数据的时空机器学习分析
人工智能·机器学习·图论·xgboost·shap·gtwr·时空机器学习
jghhh011 天前
使用cvx工具箱求解svm的原问题及其对偶问题
人工智能·机器学习·支持向量机
低音钢琴1 天前
【人工智能系列:走近人工智能05】基于 PyTorch 的机器学习开发与部署实战
人工智能·pytorch·机器学习
JJJJ_iii1 天前
【机器学习11】决策树进阶、随机森林、XGBoost、模型对比
人工智能·python·神经网络·算法·决策树·随机森林·机器学习
南方的狮子先生1 天前
【深度学习】卷积神经网络(CNN)入门:看图识物不再难!
人工智能·笔记·深度学习·神经网络·机器学习·cnn·1024程序员节
2501_938963961 天前
基于音乐推荐数据的逻辑回归实验报告:曲风特征与用户收听意愿预测
算法·机器学习·逻辑回归
2501_938791221 天前
逻辑回归正则化解释性实验报告:L2 正则对模型系数收缩的可视化分析
算法·机器学习·逻辑回归