【机器学习系列】使用KNN模型进行数据分析和预测的完整流程

目录

一、导入数据

二、选择特征变量

三、划分训练集和测试集

四、训练KNN模型

五、进行预测

六、计算混淆矩阵

七、计算准确率

八、计算精确度

九、计算召回率

十、计算F1值

十一、计算十折交叉验证

十二、选取最优参数K值

(一)设置空列表用于储存分数

[(二) 通过for循环遍历K值](#(二) 通过for循环遍历K值)

[(三) 生成各个K值对应的模型评分](#(三) 生成各个K值对应的模型评分)

[(四) 绘制不同参数K对应的评分的折线图](#(四) 绘制不同参数K对应的评分的折线图)

[(五) 使用最佳参数n_neighbors=17建模](#(五) 使用最佳参数n_neighbors=17建模)


一、导入数据

复制代码
#将华南地区的数据作为样本数据,导入data变量中
import pandas
data = pandas.read_csv('华南地区.csv',encoding='utf8')
复制代码
#导入需要预测的华北地区数据
import pandas
华北地区数据 = pandas.read_csv('华北地区.csv',encoding='utf8')

二、选择特征变量

复制代码
#特征变量
x = data[['注册时长', '营收收入', '成本']]
#目标变量
y = data['是否续约']

三、划分训练集和测试集

复制代码
from sklearn.model_selection import train_test_split

#把数据集分为训练集和测试集
x_train, x_test, y_train, y_test = train_test_split(
    x, y, test_size=0.3
)

四、训练KNN模型

复制代码
from sklearn.neighbors import KNeighborsClassifier
#新建一个KNN模型,设置个数为3
knnModel = KNeighborsClassifier(n_neighbors=3)
#使用训练集训练KNN模型
knnModel.fit(x_train, y_train)
#使用测试集测试KNN模型
knnModel.score(x_test, y_test)

在测试集上的准确率分数如下:

五、进行预测

复制代码
#预测测试数据集的目标变量
y_test_predict = knnModel.predict(x_test)

六、计算混淆矩阵

复制代码
#计算混淆矩阵
from sklearn.metrics import confusion_matrix
confusion_matrix(
    y_test, 
    y_test_predict, 
    labels=['续约', '不续约']
)

七、计算准确率

复制代码
#准确率
from sklearn.metrics import accuracy_score
accuracy_score(y_test, y_test_predict)
#混淆矩阵
#array([[225,  82],
#       [ 56,  87]], dtype=int64)
#(225+87)/(225+82+56+87)

八、计算精确度

复制代码
#精确率
from sklearn.metrics import precision_score
precision_score(y_test, y_test_predict, pos_label="续约")
precision_score(y_test, y_test_predict, pos_label="不续约")
#混淆矩阵
#array([[225,  82],
#       [ 56,  87]], dtype=int64)
#(225)/(225+56)

九、计算召回率

复制代码
#召回率
from sklearn.metrics import recall_score
recall_score(y_test, y_test_predict, pos_label="续约")
recall_score(y_test, y_test_predict, pos_label="不续约")

#混淆矩阵
#array([[225,  82],
#       [ 56,  87]], dtype=int64)
#(225)/(225+82)

十、计算F1值

复制代码
#f1值
from sklearn.metrics import f1_score
f1_score(y_test, y_test_predict, pos_label="续约")
f1_score(y_test, y_test_predict, pos_label="不续约")

#混淆矩阵
#array([[225,  82],
#       [ 56,  87]], dtype=int64)
#2/(1/((225)/(225+56)) + 1/((225)/(225+82)))

十一、计算十折交叉验证

复制代码
from sklearn.model_selection import cross_val_score
#进行K折交叉验证
knnModel = KNeighborsClassifier(n_neighbors=3)
cvs = cross_val_score(knnModel, x, y, cv=10)
cvs
cvs.mean()

十二、选取最优参数K值

(一)设置空列表用于储存分数

复制代码
from sklearn.metrics import make_scorer
#用来保存KNN模型的邻居个数
ks = []
#用来保存准确率
accuracy_means = []
#用来保存精确率
precision_means = []
#用来保存召回率
recall_means = []
#用来保存f1值
f1_means = []

(二) 通过for循环遍历K值

复制代码
#n_neighbors参数,从2到29,一个个尝试
for k in range(2, 30):
    #把n_neighbors参数保存起来
    ks.append(k)
    #改变KNN模型的参数n_neighbors为k
    knnModel = KNeighborsClassifier(n_neighbors=k)
    #计算10折交叉验证的准确率
    accuracy_cvs = cross_val_score(
        knnModel, 
        x, y, cv=10, 
        scoring=make_scorer(accuracy_score)
    )
    #将10折交叉验证的准确率的均值保存起来
    accuracy_means.append(accuracy_cvs.mean())
    #计算10折交叉验证的精确率
    precision_cvs = cross_val_score(
        knnModel, 
        x, y, cv=10, 
        scoring=make_scorer(
            precision_score, 
            pos_label="续约"
        )
    )
    #将10折交叉验证的精确率的均值保存起来
    precision_means.append(precision_cvs.mean())
    #计算10折交叉验证的召回率
    recall_cvs = cross_val_score(
        knnModel, 
        x, y, cv=10, 
        scoring=make_scorer(
            recall_score, 
            pos_label="续约"
        )
    )
    #将10折交叉验证的召回率的均值保存起来
    recall_means.append(recall_cvs.mean())
    #计算10折交叉验证的f1值
    f1_cvs = cross_val_score(
        knnModel, 
        x, y, cv=10, 
        scoring=make_scorer(
            f1_score, 
            pos_label="续约"
        )
    )
    #将10折交叉验证的f1值的均值保存起来
    f1_means.append(f1_cvs.mean())

(三) 生成各个K值对应的模型评分

复制代码
#生成参数对应的模型评分
scores = pandas.DataFrame({
    'k': ks,
    'precision': precision_means,
    'accuracy': accuracy_means,
    'recall': recall_means,
    'f1': f1_means
})

(四) 绘制不同参数K对应的评分的折线图

复制代码
#绘制不同参数对应的评分的折线图
scores.plot(
    x='k', 
    y=['accuracy', 'precision', 'recall', 'f1']
)

(五) 使用最佳参数n_neighbors=17建模

复制代码
#使用最佳参数n_neighbors=17建模
knnModel = KNeighborsClassifier(n_neighbors=17)
#使用所有训练样本训练模型
knnModel.fit(x, y)
#对未知的目标数据进行预测
华北地区数据['预测续约'] = knnModel.predict(
    华北地区数据[['注册时长', '营收收入', '成本']]
)

pandas.options.display.max_columns = None
pandas.options.display.max_rows = None
华北地区数据[['注册时长','营收收入','成本','预测续约']]

预测结果如下:

相关推荐
CM莫问2 小时前
<论文>(微软)避免推荐域外物品:基于LLM的受限生成式推荐
人工智能·算法·大模型·推荐算法·受限生成
康谋自动驾驶3 小时前
康谋分享 | 自动驾驶仿真进入“标准时代”:aiSim全面对接ASAM OpenX
人工智能·科技·算法·机器学习·自动驾驶·汽车
深蓝学院4 小时前
密西根大学新作——LightEMMA:自动驾驶中轻量级端到端多模态模型
人工智能·机器学习·自动驾驶
StarRocks_labs5 小时前
从InfluxDB到StarRocks:Grab实现Spark监控平台10倍性能提升
大数据·数据库·starrocks·分布式·spark·iris·物化视图
归去_来兮5 小时前
人工神经网络(ANN)模型
人工智能·机器学习·人工神经网络
2201_754918415 小时前
深入理解卷积神经网络:从基础原理到实战应用
人工智能·神经网络·cnn
强盛小灵通专卖员5 小时前
DL00219-基于深度学习的水稻病害检测系统含源码
人工智能·深度学习·水稻病害
Luke Ewin5 小时前
CentOS7.9部署FunASR实时语音识别接口 | 部署商用级别实时语音识别接口FunASR
人工智能·语音识别·实时语音识别·商用级别实时语音识别
Joern-Lee5 小时前
初探机器学习与深度学习
人工智能·深度学习·机器学习
若兰幽竹6 小时前
【Spark分析HBase数据】Spark读取并分析HBase数据
大数据·spark·hbase