sklearn学习(4)K近邻(KNN)

#K近邻是一种直观和简单的监督学习方法,既可以用在分类任务也可用在回归任务,其主要思想是对于一个新样本计算离它最近的k个样本一般为奇数个,看这k个在哪一类中的数量多,则属于那一类。需要注意的是在进行KNN之前最好对数据进行标准化处理,避免由于量纲导致不利影响。

导入库

复制代码
from sklearn.metrics import accuracy_score
from sklearn.neighbors import KNeighborsClassifier
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.metrics import classification_report

加载数据

复制代码
iris=load_iris()
x=iris.data
y=iris.target

标准化并划分数据集和测试集

复制代码
#标准化
sc=StandardScaler()
x=sc.fit_transform(x)
#划分训练集和测试集
x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.2)

创建KNN

复制代码
#创建KNN
knn=KNeighborsClassifier(n_neighbors=3)
#参数解释
#n_neighbors=3,表示根据K个点投票看新类别在哪个类别
#weights=uniform,表示每个邻居的权重相同 还有distance表示距离越近权重越大 默认是uniform
#algorithm=auto,表示计算方式,默认是auto,还有ball_tree kd_tree brute 表示使用的算法
#leaf_size=30,表示叶子节点的个数,默认是30 仅在algorithm=ball_tree和kd_tree时使用
#p=2,表示距离的度量方式,默认是欧氏距离,还有曼哈顿距离
#metric=euclidean,表示距离的度量方式,默认是欧氏距离,还有曼哈顿距离等
#训练
knn.fit(x_train,y_train)#注意这是惰性训练,只会存储数据,不会有模型

测试

复制代码
y_predict=knn.predict(x_test)
print(y_test)
print(y_predict)
print(y_predict==y_test)

计算准确率并输出报告

复制代码
#计算准确率
accuracy=accuracy_score(y_test,y_predict)
print("准确率:",accuracy)
accur=knn.score(x_test,y_test)
print("准确率:",accur)

#分类报告
print(classification_report(y_test,y_predict,target_names=iris.target_names))
相关推荐
风象南25 分钟前
普通人用AI加持赚到的第一个100块
人工智能·后端
牛奶1 小时前
2026年大模型怎么选?前端人实用对比
前端·人工智能·ai编程
牛奶1 小时前
前端人为什么要学AI?
前端·人工智能·ai编程
哥布林学者3 小时前
高光谱成像(一)高光谱图像
机器学习·高光谱成像
罗西的思考4 小时前
AI Agent框架探秘:拆解 OpenHands(10)--- Runtime
人工智能·算法·机器学习
冬奇Lab4 小时前
OpenClaw 源码精读(2):Channel & Routing——一条消息如何找到它的 Agent?
人工智能·开源·源码阅读
冬奇Lab4 小时前
一天一个开源项目(第38篇):Claude Code Telegram - 用 Telegram 远程用 Claude Code,随时随地聊项目
人工智能·开源·资讯
格砸6 小时前
从入门到辞职|从ChatGPT到OpenClaw,跟上智能时代的进化
前端·人工智能·后端
可观测性用观测云6 小时前
可观测性 4.0:教系统如何思考
人工智能
sunny8656 小时前
Claude Code 跨会话上下文恢复:从 8 次纠正到 0 次的工程实践
人工智能·开源·github