sklearn学习(4)K近邻(KNN)

#K近邻是一种直观和简单的监督学习方法,既可以用在分类任务也可用在回归任务,其主要思想是对于一个新样本计算离它最近的k个样本一般为奇数个,看这k个在哪一类中的数量多,则属于那一类。需要注意的是在进行KNN之前最好对数据进行标准化处理,避免由于量纲导致不利影响。

导入库

复制代码
from sklearn.metrics import accuracy_score
from sklearn.neighbors import KNeighborsClassifier
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.metrics import classification_report

加载数据

复制代码
iris=load_iris()
x=iris.data
y=iris.target

标准化并划分数据集和测试集

复制代码
#标准化
sc=StandardScaler()
x=sc.fit_transform(x)
#划分训练集和测试集
x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.2)

创建KNN

复制代码
#创建KNN
knn=KNeighborsClassifier(n_neighbors=3)
#参数解释
#n_neighbors=3,表示根据K个点投票看新类别在哪个类别
#weights=uniform,表示每个邻居的权重相同 还有distance表示距离越近权重越大 默认是uniform
#algorithm=auto,表示计算方式,默认是auto,还有ball_tree kd_tree brute 表示使用的算法
#leaf_size=30,表示叶子节点的个数,默认是30 仅在algorithm=ball_tree和kd_tree时使用
#p=2,表示距离的度量方式,默认是欧氏距离,还有曼哈顿距离
#metric=euclidean,表示距离的度量方式,默认是欧氏距离,还有曼哈顿距离等
#训练
knn.fit(x_train,y_train)#注意这是惰性训练,只会存储数据,不会有模型

测试

复制代码
y_predict=knn.predict(x_test)
print(y_test)
print(y_predict)
print(y_predict==y_test)

计算准确率并输出报告

复制代码
#计算准确率
accuracy=accuracy_score(y_test,y_predict)
print("准确率:",accuracy)
accur=knn.score(x_test,y_test)
print("准确率:",accur)

#分类报告
print(classification_report(y_test,y_predict,target_names=iris.target_names))
相关推荐
AI应用实战 | RE几秒前
012、检索器(Retrievers)核心:从向量库中智能查找信息
人工智能·算法·机器学习·langchain
IT_陈寒2 分钟前
Python的列表推导式里藏了个坑,差点让我加班到凌晨
前端·人工智能·后端
Thomas.Sir5 分钟前
AI 医疗之罕见病/疑难病辅助诊断系统从算法到实现【表型驱动与知识图谱推理】
人工智能·算法·ai·知识图谱
liliangcsdn16 分钟前
MCP协议的深度分析与应用示例
人工智能·机器学习·全文检索
格鸰爱童话20 分钟前
向AI学习项目技能(五)
java·学习
技术人生黄勇29 分钟前
拆解 Hermes Agent:开源 Agent 里唯一的闭环学习系统
学习
VBsemi-专注于MOSFET研发定制36 分钟前
面向AI水泥厂储能系统的功率器件选型分析——以高可靠、高效率的能源转换与管理系统为例
人工智能·能源
海兰42 分钟前
【第2篇】LangChain的初步实践
人工智能·langchain
漫游的渔夫44 分钟前
别再直接 `json.loads` 了!AI 返回的 JSON 坑位指南
前端·人工智能
凉、介1 小时前
别再把 PCIe 的 inbound/outbound、iATU 和 eDMA 混为一谈
linux·笔记·学习·嵌入式·pcie