【K近邻分类算法介绍】

文章目录


一、什么是K近邻分类?

K近邻分类是一种基于实例的监督学习方法,其核心思想是在样本空间中寻找与待分类样本最接近的k个邻居,并通过这些邻居的多数投票来确定该样本的类别。

主要特点:

  • 简单直观:训练时只需存储数据,分类时通过计算距离进行决策,无需显式的模型训练过程。
  • 非参数方法:不对数据的分布作任何假设,适用于数据分布未知的情况。
  • 依赖距离度量:常用距离包括欧氏距离、曼哈顿距离等,选择合适的距离度量对算法性能至关重要。

二、K近邻分类的工作原理

  1. 距离计算

    对于两个数据点 x = ( x 1 , x 2 , ... , x n ) 和 y = ( y 1 , y 2 , ... , y n ) x=(x_1,x_2,\ldots,x_n)\text{ 和 }y=(y_1,y_2,\ldots,y_n) x=(x1,x2,...,xn) 和 y=(y1,y2,...,yn),欧氏距离的计算公式为:
    d ( x , y ) = ∑ i = 1 n ( x i − y i ) 2 d(x,y)=\sqrt{\sum_{i=1}^n(x_i-y_i)^2} d(x,y)=∑i=1n(xi−yi)2

    该距离度量帮助我们找到最相似的样本。

  2. 选择k值

    k值(邻居数量)是一个重要的超参数。较小的k值可能导致模型对噪声过于敏感(过拟合),而较大的k值则可能使模型过于平滑,导致欠拟合。通常通过交叉验证来确定最优的k值。

  3. 多数投票决策

    当计算出待分类样本与所有训练样本的距离后,选择距离最小的k个样本,并以这k个样本中出现次数最多的类别作为预测类别。

  4. 权重调整(可选)

    有时可以根据距离给邻居加权,距离较近的样本权重更大,从而提高分类效果。


三、使用步骤

1. 引入库

首先需要导入必要的Python库,包括numpy、pandas、matplotlib,以及scikit-learn中的相关模块。

python 复制代码
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.neighbors import KNeighborsClassifier
from sklearn.metrics import accuracy_score

2. 读入数据

这里使用scikit-learn内置的鸢尾花数据集。该数据集包含150个样本,每个样本有4个特征,分别对应花萼长度、花萼宽度、花瓣长度和花瓣宽度。

python 复制代码
# 加载鸢尾花数据集
iris = load_iris()
X = iris.data    # 特征数据
y = iris.target  # 标签数据

# 查看特征数据的前五行
df_features = pd.DataFrame(X, columns=iris.feature_names)
print("特征数据前五行:\n", df_features.head())
print("标签数据前五个:\n", y[:5])

3. 划分训练集和测试集

为了评估模型效果,将数据集划分为训练集和测试集,常用比例为80%训练集和20%测试集。

python 复制代码
# 划分数据集,测试集占20%
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

4. 建立并训练模型

利用scikit-learn中的KNeighborsClassifier来构建kNN模型,设置参数n_neighbors=3表示选取最近的3个邻居进行多数投票,然后用训练数据进行模型拟合。

python 复制代码
# 构建k近邻分类器,设置邻居数量为3
knn = KNeighborsClassifier(n_neighbors=3)
knn.fit(X_train, y_train)

5. 模型预测与评估

训练完成后,使用测试集数据对模型进行验证,计算预测的准确率。

python 复制代码
# 使用测试集进行预测
y_pred = knn.predict(X_test)

# 计算模型的准确率
accuracy = accuracy_score(y_test, y_pred)
print("测试集准确率: {:.2f}%".format(accuracy * 100))

此外还可以通过绘制决策边界、混淆矩阵等方法进一步评估模型效果。

相关推荐
机器之心6 分钟前
提前免费!百度连发两款模型,我们实测:能听歌看电影,还会蛐蛐人
人工智能
lihuayong26 分钟前
RAG的工作原理以及案例列举
人工智能·rag·文本向量化·检索增强生成·语义相似度
果冻人工智能31 分钟前
Google 发布 Gemma 3 —— 你需要了解的内容
人工智能
-一杯为品-1 小时前
【动手学深度学习】#2线性神经网络
人工智能·深度学习·神经网络
SZ1701102311 小时前
语音识别 FireRedASR-AED模型主要特点
人工智能·语音识别
@黄色海岸1 小时前
【sklearn 05】sklearn功能模块
人工智能·python·sklearn
@黄色海岸1 小时前
【sklearn 02】监督学习、非监督下学习、强化学习
人工智能·学习·sklearn
境心镜1 小时前
(下一个更新)PATNAS: A Path-Based Training-Free NeuralArchitecture Search
人工智能·深度学习·nas·免训练
智驱力人工智能1 小时前
AI赋能实时安全背带监测解决方案
人工智能·安全·计算机视觉·智慧城市·智慧工地·智能巡检·安全背带识别