《昇思25天学习打卡营第17天|K近邻算法实现红酒聚类》

K近邻算法原理介绍

K近邻算法(K-Nearest-Neighbor, KNN)是一种用于分类和回归的非参数统计方法,最初由 Cover和Hart于1968年提出是机器学习最基础的算法之一。它正是基于以上思想:要确定一个样本的类别,可以计算它与所有训练样本的距离,然后找出和该样本最接近的k个样本,统计出这些样本的类别并进行投票,票数最多的那个类就是分类的结果。KNN的三个基本要素:

  • K值,一个样本的分类是由K个邻居的"多数表决"确定的。K值越小,容易受噪声影响,反之,会使类别之间的界限变得模糊。

  • 距离度量,反映了特征空间中两个样本间的相似度,距离越小,越相似。常用的有Lp距离(p=2时,即为欧式距离)、曼哈顿距离、海明距离等。

  • 分类决策规则,通常是多数表决,或者基于距离加权的多数表决(权值与距离成反比)。

  • 数据准备

    • 获取红酒数据集。通常红酒数据集包括多种特征,比如酸度、糖分、酒精度等。
    • 将数据集分为训练集和测试集。
  • 特征提取

    • 对每个红酒样本提取特征。每个样本通常表示为一个多维向量,例如 [x1,x2,...,xn][x_1, x_2, ..., x_n][x1,x2,...,xn],其中 xix_ixi 是红酒的一个特征。
  • 计算距离

    • 使用距离度量(如欧氏距离)计算测试样本与训练集中每个样本的距离。
    • 欧氏距离公式: d(x,y)=∑i=1n(xi−yi)2d(x, y) = \sqrt{\sum_{i=1}^{n}(x_i - y_i)^2}d(x,y)=i=1∑n(xi−yi)2 其中 xxx 和 yyy 分别是两个样本的特征向量。
  • 选择 KKK 值

    • 选择一个适当的 KKK 值。 KKK 通常通过交叉验证来确定。一般来说, KKK 值较小时,模型较复杂,容易过拟合; KKK 值较大时,模型较简单,容易欠拟合。
  • 寻找最近邻

    • 根据计算的距离,找出测试样本的 KKK 个最近邻居。
  • 投票或平均

    • 如果是分类问题,根据 KKK 个最近邻的类别进行投票,得票最多的类别为测试样本的类别。
    • 如果是回归问题,根据 KKK 个最近邻的值计算平均值或加权平均值,作为测试样本的预测值。
  • 模型评估

    • 使用适当的评估指标(如准确率、F1值等)评估模型在测试集上的表现。
相关推荐
Pasregret1 分钟前
策略模式:动态切换算法的设计智慧
算法·bash·策略模式
努力学习的小廉20 分钟前
【C++】 —— 笔试刷题day_21
开发语言·c++·算法
周杰伦_Jay1 小时前
continue插件实现IDEA接入本地离线部署的deepseek等大模型
java·数据结构·ide·人工智能·算法·数据挖掘·intellij-idea
江沉晚呤时1 小时前
深入了解递归、堆与栈:C#中的内存管理与函数调用
java·jvm·算法
岩中竹1 小时前
力扣热题100题解(c++)—矩阵
数据结构·c++·程序人生·算法·leetcode·矩阵
啊阿狸不会拉杆1 小时前
数据结构-图
java·c语言·数据结构·c++·python·算法·图论
SophiaSSSSS3 小时前
无标注文本的行业划分(行业分类)算法 —— 无监督或自监督学习
学习·算法·分类
明月清了个风3 小时前
数据结构与算法学习笔记(Acwing提高课)----动态规划·数字三角形
笔记·学习·算法·动态规划
刃神太酷啦3 小时前
堆和二叉树--数据结构初阶(3)(C/C++)
c语言·数据结构·c++·算法·leetcode·深度优先·宽度优先
●VON3 小时前
杭电oj(1087、1203、1003)题解
算法·leetcode·职场和发展