【机器学习基础】机器学习入门核心算法:K-近邻算法(K-Nearest Neighbors, KNN)

机器学习入门核心算法:K-近邻算法(K-Nearest Neighbors, KNN)

一、算法逻辑

1.1 基本概念

K-近邻算法(KNN)是一种基于实例的监督学习算法,其核心思想是**"物以类聚"**。算法特点包括:

  • 懒惰学习(Lazy Learning):没有显式的训练过程,直接存储全部训练数据
  • 非参数化:不假设数据分布形式
  • 局部近似:仅依赖邻近样本进行预测

工作原理

给定新样本时,在训练集中查找距离最近的K个样本,通过这K个邻居的标签进行多数表决(分类)或均值计算(回归)。

1.2 关键要素

距离度量

常用距离计算公式:

  1. 欧氏距离 (默认选择):
    d ( x i , x j ) = ∑ k = 1 n ( x i k − x j k ) 2 d(\boldsymbol{x}i, \boldsymbol{x}j) = \sqrt{\sum{k=1}^n (x{ik} - x_{jk})^2} d(xi,xj)=k=1∑n(xik−xjk)2
  2. 曼哈顿距离
    d ( x i , x j ) = ∑ k = 1 n ∣ x i k − x j k ∣ d(\boldsymbol{x}i, \boldsymbol{x}j) = \sum{k=1}^n |x{ik} - x_{jk}| d(xi,xj)=k=1∑n∣xik−xjk∣
  3. 闵可夫斯基距离 (通用形式):
    d ( x i , x j ) = ( ∑ k = 1 n ∣ x i k − x j k ∣ p ) 1 / p d(\boldsymbol{x}i, \boldsymbol{x}j) = \left( \sum{k=1}^n |x{ik} - x_{jk}|^p \right)^{1/p} d(xi,xj)=(k=1∑n∣xik−xjk∣p)1/p
K值选择
  • K=1:最近邻算法,决策边界不规则,容易过拟合
  • K过大:决策边界平滑,可能欠拟合

二、算法原理与数学推导

2.1 分类任务

多数表决规则
y ^ = arg ⁡ max ⁡ c ∑ x i ∈ N k ( x ) I ( y i = c ) \hat{y} = \arg\max_{c} \sum_{\boldsymbol{x}_i \in N_k(\boldsymbol{x})} I(y_i = c) y^=argcmaxxi∈Nk(x)∑I(yi=c)

其中:

  • N k ( x ) N_k(\boldsymbol{x}) Nk(x):样本 x \boldsymbol{x} x的K个最近邻
  • I ( ⋅ ) I(\cdot) I(⋅):指示函数,条件满足时取1否则0

加权投票改进
y ^ = arg ⁡ max ⁡ c ∑ x i ∈ N k ( x ) w i I ( y i = c ) \hat{y} = \arg\max_{c} \sum_{\boldsymbol{x}_i \in N_k(\boldsymbol{x})} w_i I(y_i = c) y^=argcmaxxi∈Nk(x)∑wiI(yi=c)

权重计算:
w i = 1 d ( x , x i ) + ϵ w_i = \frac{1}{d(\boldsymbol{x}, \boldsymbol{x}_i) + \epsilon} wi=d(x,xi)+ϵ1

( ϵ \epsilon ϵ为防止除零的小常数)

2.2 回归任务

均值预测
y ^ = 1 k ∑ x i ∈ N k ( x ) y i \hat{y} = \frac{1}{k} \sum_{\boldsymbol{x}_i \in N_k(\boldsymbol{x})} y_i y^=k1xi∈Nk(x)∑yi

加权回归
y ^ = ∑ x i ∈ N k ( x ) w i y i ∑ w i \hat{y} = \frac{\sum_{\boldsymbol{x}_i \in N_k(\boldsymbol{x})} w_i y_i}{\sum w_i} y^=∑wi∑xi∈Nk(x)wiyi

2.3 时间复杂度分析

阶段 时间复杂度 说明
训练阶段 O(1) 仅存储数据
预测阶段 O(nd + nlogk) d为维度,n为样本数
优化后 O(mlog n) 使用KD树/球树结构

三、模型评估

3.1 评估指标

任务类型 常用指标 公式
分类 准确率、F1 Score A c c u r a c y = T P + T N N Accuracy = \frac{TP+TN}{N} Accuracy=NTP+TN
回归 MSE、MAE M S E = 1 n ∑ ( y i − y ^ i ) 2 MSE = \frac{1}{n}\sum(y_i-\hat{y}_i)^2 MSE=n1∑(yi−y^i)2

3.2 交叉验证调参

K值选择方法

  1. 肘部法则(Elbow Method):绘制不同K值的误差曲线
  2. 网格搜索:结合交叉验证选择最优K值

代码示例

python 复制代码
from sklearn.neighbors import KNeighborsClassifier
from sklearn.model_selection import GridSearchCV

params = {'n_neighbors': [3,5,7,9], 
          'weights': ['uniform', 'distance']}
grid = GridSearchCV(KNeighborsClassifier(), params, cv=5)
grid.fit(X_train, y_train)

四、应用案例

4.1 手写数字识别

数据集 :MNIST(60,000张28x28灰度图)
关键步骤

  1. 数据标准化:像素值缩放到[0,1]
  2. 降维处理:使用PCA保留95%方差
  3. 模型配置:K=5,加权距离

性能表现

  • 测试集准确率:97.1%
  • 推理速度:200样本/秒(使用KD树加速)

4.2 推荐系统

应用场景 :电影推荐
特征工程

  • 用户评分矩阵
  • 电影类型标签(One-Hot编码)
  • 用户行为时序特征

相似度计算
Similarity ( u , v ) = ∑ i ∈ I u v ( r u i − r ˉ u ) ( r v i − r ˉ v ) ∑ i ∈ I u v ( r u i − r ˉ u ) 2 ∑ i ∈ I u v ( r v i − r ˉ v ) 2 \text{Similarity}(u,v) = \frac{\sum_{i \in I_{uv}}(r_{ui} - \bar{r}u)(r{vi} - \bar{r}v)}{\sqrt{\sum{i \in I_{uv}}(r_{ui} - \bar{r}u)^2} \sqrt{\sum{i \in I_{uv}}(r_{vi} - \bar{r}_v)^2}} Similarity(u,v)=∑i∈Iuv(rui−rˉu)2 ∑i∈Iuv(rvi−rˉv)2 ∑i∈Iuv(rui−rˉu)(rvi−rˉv)

推荐流程

  1. 查找最相似K个用户
  2. 聚合这些用户的高评分电影
  3. 过滤已观看内容生成推荐列表

五、经典面试题

问题1:KNN的主要优缺点?

优点分析

  • 原理直观,实现简单
  • 无需训练阶段,适合动态数据集
  • 天然支持多分类任务

缺点分析

  • 计算复杂度高(预测阶段需全量计算)
  • 对高维数据敏感(维度灾难)
  • 需要特征标准化处理

问题2:如何处理高维数据?

解决方案

  1. 特征选择:使用互信息、卡方检验等方法筛选重要特征
  2. 降维技术:PCA、t-SNE等
  3. 距离度量改进:使用余弦相似度替代欧氏距离
  4. 数据标准化:Min-Max或Z-Score标准化

问题3:KNN与K-Means的区别?

本质区别对比

维度 KNN K-Means
算法类型 监督学习 无监督聚类
目标 分类/回归 数据分组
距离计算 测试样本与所有训练样本计算 样本与聚类中心计算
K值含义 最近邻数量 聚类中心数量

六、高级优化技术

6.1 数据结构优化

KD树构建

  1. 选择方差最大的维度进行划分
  2. 以中位数作为切分点
  3. 递归构建左右子树

球树(Ball Tree)

  • 将数据点组织成嵌套超球体
  • 适合高维数据,比KD树更高效

6.2 近似最近邻(ANN)

大规模数据加速方法

  1. 位置敏感哈希(LSH):通过哈希函数将相似数据映射到相同桶
  2. 层次导航小世界(HNSW):基于图结构的快速检索
  3. 乘积量化(PQ):将高维向量分解为子空间量化

七、最佳实践指南

7.1 参数调优建议

参数 推荐值 作用说明
n_neighbors 3-15(奇数为佳) 控制模型复杂度
weights distance 加权近邻投票
algorithm auto 自动选择最优数据结构
leaf_size 30-50 控制树结构的存储效率

7.2 特征处理要点

  • 标准化:必须对数值特征进行标准化
  • 类别特征:使用嵌入(Embedding)代替One-Hot
  • 缺失值:使用KNNImputer进行填充

总结与展望

KNN算法凭借其简单直观的特性,在模式识别、推荐系统等领域持续发挥重要作用。未来发展方向包括:

  1. 分布式计算:使用Spark MLlib加速大规模KNN
  2. 深度学习结合:用神经网络学习更好的距离度量
  3. 硬件加速:利用GPU实现实时KNN计算
相关推荐
人邮异步社区26 分钟前
机器学习圣经PRML作者Bishop20年后新作中文版出版!
深度学习·机器学习·程序员
nenchoumi31191 小时前
Mujoco 学习系列(番外一)MJX 部署与配置
人工智能·学习·机器学习·机器人
苏荷水2 小时前
day12 leetcode-hot100-19(矩阵2)
算法·leetcode·矩阵
之之为知知2 小时前
数学笔记三:特殊矩阵
笔记·学习·线性代数·算法·职场和发展·矩阵·职场发展
IMA小队长2 小时前
02.Embedding:数字变矩阵
人工智能·深度学习·机器学习
苏荷水2 小时前
day12 leetcode-hot100-20(矩阵3)
算法·leetcode·矩阵
全栈凯哥3 小时前
Java详解LeetCode 热题 100(21):LeetCode 240. 搜索二维矩阵 II(Search a 2D Matrix II)详解
java·算法·leetcode
武子康3 小时前
大数据-273 Spark MLib - 基础介绍 机器学习算法 决策树 分类原则 分类原理 基尼系数 熵
大数据·人工智能·算法·决策树·机器学习·spark-ml
云空3 小时前
《ChatGPT o3抗命:AI失控警钟还是成长阵痛?》
人工智能·深度学习·神经网络·机器学习·chatgpt
肥猪猪爸4 小时前
使用LSTM进行时间序列分析
数据结构·人工智能·rnn·深度学习·算法·lstm·时间序列分析