KNN课堂(分类课堂(可用kd树/特征归一化提高精度)))

实验代码:

导入所需要的库

import numpy as np

import pandas as pd

from sklearn.ensemble import RandomForestClassifier

from sklearn.model_selection import train_test_split

from sklearn.neighbors import KNeighborsClassifier

导入数据集

df = pd.read_csv('C:\\Users\\Administrator\\Desktop\\iris.csv')

提取特征和标签

X = df.iloc[:, 0:4].values

y = df.iloc[:, 4].values

将数据集分为训练集和测试集

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0)

建立 KNN 模型

"""

  1. n_neighbors:整数值,表示要考虑的最近邻的数量。

  2. weights:可以是'uniform'或者是'distance',表示在计算最近邻的距离时考虑的权重,'uniform'表示所有最近邻的距离权重都一样,而'distance'表示距离越近的最近邻权重越大。

  3. algorithm:可以是'ball_tree'、'kd_tree'或者'brute',表示使用何种算法来计算最近邻的距离。

  4. leaf_size:整数值,表示在构建 ball_tree 或者 kd_tree 时考虑的叶节点的尺寸。

  5. metric:字符串值,表示使用何种度量来计算最近邻的距离,常用的有'euclidean'(欧几里得距离)和'minkowski'(闵可夫斯基距离)。

"""

knn = KNeighborsClassifier(n_neighbors=5)

knn.fit(X, y)

训练模型

knn.fit(X_train, y_train)

预测测试集结果

y_pred = knn.predict(X_test)

计算准确率

accuracy = knn.score(X_test, y_test)

打印准确率

print("Accuracy: {}".format(accuracy))

实验结果:

数据集:

见所提供资料

相关推荐
好家伙VCC1 天前
**神经编码新视角:用Python实现生物启发的神经信号压缩与解码算法**在人工智能飞速发展的今天
java·人工智能·python·算法
Navicat中国1 天前
如何使用 Ollama 配置 AI 助手 | Navicat 教程
数据库·人工智能·ai·navicat·ollama
@小匠1 天前
Read Frog:一款开源的 AI 驱动浏览器语言学习扩展
人工智能·学习
山间小僧1 天前
「AI学习笔记」RNN
机器学习·aigc·ai编程
踏着七彩祥云的小丑1 天前
pytest——Mark标记
开发语言·python·pytest
网教盟人才服务平台1 天前
“方班预备班盾立方人才培养计划”正式启动!
大数据·人工智能
芯智工坊1 天前
第15章 Mosquitto生产环境部署实践
人工智能·mqtt·开源
菜菜艾1 天前
基于llama.cpp部署私有大模型
linux·运维·服务器·人工智能·ai·云计算·ai编程
不爱吃炸鸡柳1 天前
Python入门第一课:零基础认识Python + 环境搭建 + 基础语法精讲
开发语言·python
TDengine (老段)1 天前
TDengine IDMP 可视化 —— 分享
大数据·数据库·人工智能·时序数据库·tdengine·涛思数据·时序数据