KNN课堂(分类课堂(可用kd树/特征归一化提高精度)))

实验代码:

导入所需要的库

import numpy as np

import pandas as pd

from sklearn.ensemble import RandomForestClassifier

from sklearn.model_selection import train_test_split

from sklearn.neighbors import KNeighborsClassifier

导入数据集

df = pd.read_csv('C:\\Users\\Administrator\\Desktop\\iris.csv')

提取特征和标签

X = df.iloc[:, 0:4].values

y = df.iloc[:, 4].values

将数据集分为训练集和测试集

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0)

建立 KNN 模型

"""

  1. n_neighbors:整数值,表示要考虑的最近邻的数量。

  2. weights:可以是'uniform'或者是'distance',表示在计算最近邻的距离时考虑的权重,'uniform'表示所有最近邻的距离权重都一样,而'distance'表示距离越近的最近邻权重越大。

  3. algorithm:可以是'ball_tree'、'kd_tree'或者'brute',表示使用何种算法来计算最近邻的距离。

  4. leaf_size:整数值,表示在构建 ball_tree 或者 kd_tree 时考虑的叶节点的尺寸。

  5. metric:字符串值,表示使用何种度量来计算最近邻的距离,常用的有'euclidean'(欧几里得距离)和'minkowski'(闵可夫斯基距离)。

"""

knn = KNeighborsClassifier(n_neighbors=5)

knn.fit(X, y)

训练模型

knn.fit(X_train, y_train)

预测测试集结果

y_pred = knn.predict(X_test)

计算准确率

accuracy = knn.score(X_test, y_test)

打印准确率

print("Accuracy: {}".format(accuracy))

实验结果:

数据集:

见所提供资料

相关推荐
网络工程小王1 分钟前
[RAG 与文本向量化详解]RAG篇
数据库·人工智能·redis·机器学习
DogDaoDao2 分钟前
【GitHub】Warp 终端深度解析:Rust + GPU 加速的 AI 原生终端开源架构
人工智能·程序员·rust·开源·github·ai编程·warp
sunneo6 分钟前
专栏D-团队与组织-05-冲突与决策
前端·人工智能·产品运营·aigc·产品经理·ai-native
生成论实验室8 分钟前
《事件关系阴阳博弈动力学:识势应势之道》第十篇:识势应势——从认知到行动的完整闭环
人工智能·算法·架构·创业创新·安全架构
Aision_9 分钟前
为什么 CTI 场景需要知识图谱?
人工智能·python·安全·web安全·langchain·prompt·知识图谱
小何code9 分钟前
人工智能【第13篇】集成学习入门:Bagging与Boosting原理详解
随机森林·机器学习·集成学习·boosting
kalvin_y_liu10 分钟前
RHOS Lab提出 Robot-Human-Object-Scene 四元范式
人工智能·具身数据模型
BU摆烂会噶11 分钟前
【LangGraph】LangGraph 工具中访问运行时上下文——ToolRuntime
人工智能·python·langchain·人机交互
β添砖java12 分钟前
深度学习(16)卷积层里的填充和步幅
人工智能·深度学习
云烟成雨TD13 分钟前
Spring AI 1.x 系列【29】Embedding Model(嵌入模型)
java·人工智能·spring