【K近邻分类算法介绍】

文章目录


一、什么是K近邻分类?

K近邻分类是一种基于实例的监督学习方法,其核心思想是在样本空间中寻找与待分类样本最接近的k个邻居,并通过这些邻居的多数投票来确定该样本的类别。

主要特点:

  • 简单直观:训练时只需存储数据,分类时通过计算距离进行决策,无需显式的模型训练过程。
  • 非参数方法:不对数据的分布作任何假设,适用于数据分布未知的情况。
  • 依赖距离度量:常用距离包括欧氏距离、曼哈顿距离等,选择合适的距离度量对算法性能至关重要。

二、K近邻分类的工作原理

  1. 距离计算

    对于两个数据点 x = ( x 1 , x 2 , ... , x n ) 和 y = ( y 1 , y 2 , ... , y n ) x=(x_1,x_2,\ldots,x_n)\text{ 和 }y=(y_1,y_2,\ldots,y_n) x=(x1,x2,...,xn) 和 y=(y1,y2,...,yn),欧氏距离的计算公式为:
    d ( x , y ) = ∑ i = 1 n ( x i − y i ) 2 d(x,y)=\sqrt{\sum_{i=1}^n(x_i-y_i)^2} d(x,y)=∑i=1n(xi−yi)2

    该距离度量帮助我们找到最相似的样本。

  2. 选择k值

    k值(邻居数量)是一个重要的超参数。较小的k值可能导致模型对噪声过于敏感(过拟合),而较大的k值则可能使模型过于平滑,导致欠拟合。通常通过交叉验证来确定最优的k值。

  3. 多数投票决策

    当计算出待分类样本与所有训练样本的距离后,选择距离最小的k个样本,并以这k个样本中出现次数最多的类别作为预测类别。

  4. 权重调整(可选)

    有时可以根据距离给邻居加权,距离较近的样本权重更大,从而提高分类效果。


三、使用步骤

1. 引入库

首先需要导入必要的Python库,包括numpy、pandas、matplotlib,以及scikit-learn中的相关模块。

python 复制代码
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.neighbors import KNeighborsClassifier
from sklearn.metrics import accuracy_score

2. 读入数据

这里使用scikit-learn内置的鸢尾花数据集。该数据集包含150个样本,每个样本有4个特征,分别对应花萼长度、花萼宽度、花瓣长度和花瓣宽度。

python 复制代码
# 加载鸢尾花数据集
iris = load_iris()
X = iris.data    # 特征数据
y = iris.target  # 标签数据

# 查看特征数据的前五行
df_features = pd.DataFrame(X, columns=iris.feature_names)
print("特征数据前五行:\n", df_features.head())
print("标签数据前五个:\n", y[:5])

3. 划分训练集和测试集

为了评估模型效果,将数据集划分为训练集和测试集,常用比例为80%训练集和20%测试集。

python 复制代码
# 划分数据集,测试集占20%
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

4. 建立并训练模型

利用scikit-learn中的KNeighborsClassifier来构建kNN模型,设置参数n_neighbors=3表示选取最近的3个邻居进行多数投票,然后用训练数据进行模型拟合。

python 复制代码
# 构建k近邻分类器,设置邻居数量为3
knn = KNeighborsClassifier(n_neighbors=3)
knn.fit(X_train, y_train)

5. 模型预测与评估

训练完成后,使用测试集数据对模型进行验证,计算预测的准确率。

python 复制代码
# 使用测试集进行预测
y_pred = knn.predict(X_test)

# 计算模型的准确率
accuracy = accuracy_score(y_test, y_pred)
print("测试集准确率: {:.2f}%".format(accuracy * 100))

此外还可以通过绘制决策边界、混淆矩阵等方法进一步评估模型效果。

相关推荐
白熊18830 分钟前
【计算机视觉】OpenCV实战项目:FunnyMirrors:基于OpenCV的实时哈哈镜效果实现技术解析
人工智能·opencv·计算机视觉
Joern-Lee1 小时前
机器学习极简入门:从基础概念到行业应用
人工智能·机器学习
china10001 小时前
大模型系列(四)--- GPT2: Language Models are Unsupervised Multitask Learners
人工智能·深度学习
Jamence1 小时前
多模态大语言模型arxiv论文略读(六十二)
人工智能·语言模型·自然语言处理
QUST-Learn3D1 小时前
OpenCV提取图像中的暗斑/亮斑
人工智能·opencv·计算机视觉
小Tomkk1 小时前
2025年5月15日前 免费考试了! Oracle AI 矢量搜索专业认证
数据库·人工智能·oracle
多巴胺与内啡肽.2 小时前
OpenCV进阶操作:指纹验证、识别
人工智能·opencv·计算机视觉
wzx_Eleven2 小时前
【论文阅读】Efficient and secure federated learning against backdoor attacks
论文阅读·人工智能·机器学习·云计算
富唯智能2 小时前
复合机器人案例启示:富唯智能如何以模块化创新引领工业自动化新标杆
人工智能·机器人·自动化
百度Geek说2 小时前
中国自动驾驶研发解决方案,第一!
人工智能·机器学习·自动驾驶