KNN实现鸢尾花分类

文章目录


前言

如下提供了两种训练方式:

  1. 常规训练 的话需要 自己去试那个K的值,一般试个 3、5、7、9 就行
  2. 网格搜索训练 可以让 机器自己去试这个K的值,训练结束后使用最好的模型预测即可
  3. N折交叉验证训练 会让训练量提升N倍,但是会最大化的利用已有数据进行训练和验证,一般来说折数多一些训练结果会变好,但也不宜过多,该方法 常用在数据量较少或者获取训练数据成本较高的情况

一、安装sklearn

python 复制代码
pip install scikit-learn

二、常规训练

python 复制代码
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split, GridSearchCV
from sklearn.preprocessing import StandardScaler
from sklearn.neighbors import KNeighborsClassifier
import pandas as pd


if __name__ == '__main__':

    # 读取数据
    iris = load_iris()
    print(iris)
    # {
    #   'data': array([[5.1, 3.5, 1.4, 0.2], [4.9, 3. , 1.4, 0.2], ... [5.9, 3. , 5.1, 1.8]]),
    #   'target': array([0, 0, ... 2]),
    #   'frame': None,
    #   'target_names': array(['setosa', 'versicolor', 'virginica'], dtype='<U10'),
    #   'DESCR': '.. _iris_dataset:\n\nIris plants dataset ...\n\n|details-end|',
    #   'feature_names': ['sepal length (cm)', 'sepal width (cm)', 'petal length (cm)', 'petal width (cm)'],
    #   'filename': 'iris.csv',
    #   'data_module': 'sklearn.datasets.data'
    # }

    # 训练集、测试集拆分
    x_train, x_test, y_train, y_test = train_test_split(iris.data, iris.target, random_state=233, test_size=0.2)
    print(x_train)
    # [[4.8 3.  1.4 0.3]
    #  [6.3 3.3 4.7 1.6]
    #       ...
    #  [5.1 3.4 1.5 0.2]]
    print(x_test)
    # [[5.2 2.7 3.9 1.4]
    #  [6.8 3.2 5.9 2.3]
    #       ...
    #  [5.7 2.6 3.5 1. ]]
    print(y_train)
    # [0 1 ... 0]
    print(y_test)
    # [1 2 ... 1]

    # 参数标准化【特征缩放到均值为0标准差为1】
    scaler = StandardScaler()
    x_train = scaler.fit_transform(x_train)
    x_test = scaler.fit_transform(x_test)

    # 【常规训练】初始化KNN并指定K为5
    model = KNeighborsClassifier(n_neighbors=5)

    # 训练
    model.fit(x_train, y_train)

    # 评估
    predict = model.predict(x_test)
    print(predict)
    # [1 2 ... 1]

    # 打印评价指标
    accuracy = model.score(x_test, y_test)
    print(accuracy)
    # 0.9666666666666667

三、网格搜素训练+N折交叉验证

python 复制代码
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split, GridSearchCV
from sklearn.preprocessing import StandardScaler
from sklearn.neighbors import KNeighborsClassifier
import pandas as pd


if __name__ == '__main__':

    # 读取数据
    iris = load_iris()
    print(iris)
    # {
    #   'data': array([[5.1, 3.5, 1.4, 0.2], [4.9, 3. , 1.4, 0.2], ... [5.9, 3. , 5.1, 1.8]]),
    #   'target': array([0, 0, ... 2]),
    #   'frame': None,
    #   'target_names': array(['setosa', 'versicolor', 'virginica'], dtype='<U10'),
    #   'DESCR': '.. _iris_dataset:\n\nIris plants dataset ...\n\n|details-end|',
    #   'feature_names': ['sepal length (cm)', 'sepal width (cm)', 'petal length (cm)', 'petal width (cm)'],
    #   'filename': 'iris.csv',
    #   'data_module': 'sklearn.datasets.data'
    # }

    # 训练集、测试集拆分
    x_train, x_test, y_train, y_test = train_test_split(iris.data, iris.target, random_state=233, test_size=0.2)
    print(x_train)
    # [[4.8 3.  1.4 0.3]
    #  [6.3 3.3 4.7 1.6]
    #       ...
    #  [5.1 3.4 1.5 0.2]]
    print(x_test)
    # [[5.2 2.7 3.9 1.4]
    #  [6.8 3.2 5.9 2.3]
    #       ...
    #  [5.7 2.6 3.5 1. ]]
    print(y_train)
    # [0 1 ... 0]
    print(y_test)
    # [1 2 ... 1]

    # 参数标准化【特征缩放到均值为0标准差为1】
    scaler = StandardScaler()
    x_train = scaler.fit_transform(x_train)
    x_test = scaler.fit_transform(x_test)

    # # 【常规训练】初始化KNN并指定K为5
    # model = KNeighborsClassifier(n_neighbors=5)

    # 【网格搜索训练+N折交叉验证】初始化KNN随便指定一个K值,将 3, 5, 7, 9 分别进行4折交叉验证训练,总训练次数为 16 次
    model = KNeighborsClassifier(n_neighbors=1)
    model = GridSearchCV(model, param_grid={'n_neighbors': [3, 5, 7, 9]}, cv=4)

    # 训练
    model.fit(x_train, y_train)


    # 评估【使用最优模型评估】
    predict = model.best_estimator_.predict(x_test)
    print(predict)
    # [1 2 ... 1]

    # 打印评价指标
    print(f'best accuracy: {model.best_score_}')
    print(f'results: {model.cv_results_}')

    # accuracy = model.score(x_test, y_test)
    # print(accuracy)
    # # 0.9666666666666667
相关推荐
jndingxin2 小时前
OpenCV CUDA模块设备层-----高效地计算两个 uint 类型值的带权重平均值
人工智能·opencv·计算机视觉
Sweet锦3 小时前
零基础保姆级本地化部署文心大模型4.5开源系列
人工智能·语言模型·文心一言
hie988943 小时前
MATLAB锂离子电池伪二维(P2D)模型实现
人工智能·算法·matlab
晨同学03273 小时前
opencv的颜色通道问题 & rgb & bgr
人工智能·opencv·计算机视觉
蓝婷儿4 小时前
Python 机器学习核心入门与实战进阶 Day 3 - 决策树 & 随机森林模型实战
人工智能·python·机器学习
大千AI助手4 小时前
PageRank:互联网的马尔可夫链平衡态
人工智能·机器学习·贝叶斯·mc·pagerank·条件概率·马尔科夫链
小和尚同志4 小时前
Cline | Cline + Grok3 免费 AI 编程新体验
人工智能·aigc
我就是全世界4 小时前
TensorRT-LLM:大模型推理加速的核心技术与实践优势
人工智能·机器学习·性能优化·大模型·tensorrt-llm
.30-06Springfield4 小时前
决策树(Decision tree)算法详解(ID3、C4.5、CART)
人工智能·python·算法·决策树·机器学习
我不是哆啦A梦4 小时前
破解风电运维“百模大战”困局,机械版ChatGPT诞生?
运维·人工智能·python·算法·chatgpt