#K近邻是一种直观和简单的监督学习方法,既可以用在分类任务也可用在回归任务,其主要思想是对于一个新样本计算离它最近的k个样本一般为奇数个,看这k个在哪一类中的数量多,则属于那一类。需要注意的是在进行KNN之前最好对数据进行标准化处理,避免由于量纲导致不利影响。
导入库
from sklearn.metrics import accuracy_score
from sklearn.neighbors import KNeighborsClassifier
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.metrics import classification_report
加载数据
iris=load_iris()
x=iris.data
y=iris.target
标准化并划分数据集和测试集
#标准化
sc=StandardScaler()
x=sc.fit_transform(x)
#划分训练集和测试集
x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.2)
创建KNN
#创建KNN
knn=KNeighborsClassifier(n_neighbors=3)
#参数解释
#n_neighbors=3,表示根据K个点投票看新类别在哪个类别
#weights=uniform,表示每个邻居的权重相同 还有distance表示距离越近权重越大 默认是uniform
#algorithm=auto,表示计算方式,默认是auto,还有ball_tree kd_tree brute 表示使用的算法
#leaf_size=30,表示叶子节点的个数,默认是30 仅在algorithm=ball_tree和kd_tree时使用
#p=2,表示距离的度量方式,默认是欧氏距离,还有曼哈顿距离
#metric=euclidean,表示距离的度量方式,默认是欧氏距离,还有曼哈顿距离等
#训练
knn.fit(x_train,y_train)#注意这是惰性训练,只会存储数据,不会有模型
测试
y_predict=knn.predict(x_test)
print(y_test)
print(y_predict)
print(y_predict==y_test)
计算准确率并输出报告
#计算准确率
accuracy=accuracy_score(y_test,y_predict)
print("准确率:",accuracy)
accur=knn.score(x_test,y_test)
print("准确率:",accur)
#分类报告
print(classification_report(y_test,y_predict,target_names=iris.target_names))