机器学习入门(一)——KNN算法

系列专栏------机器学习入门系列,持续更新,收藏点赞关注不迷路;

目录

前言

一、KNN算法简介

二、样本距离度量方式

[2.1 欧式距离](#2.1 欧式距离)

[2.2 曼哈顿距离](#2.2 曼哈顿距离)

[2.3 切比雪夫距离](#2.3 切比雪夫距离)

总结

[三、 KNN算法API介绍](#三、 KNN算法API介绍)

[3.1 KNN 分类API](#3.1 KNN 分类API)

[3.2 KNN 回归API](#3.2 KNN 回归API)

四、特征预处理

[4.1 归一化处理](#4.1 归一化处理)

[4.2 数据标准化](#4.2 数据标准化)

五、鸢尾花综合案例

[5.1 实现流程如下](#5.1 实现流程如下)

总结



前言

随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。后续会补一章(入门(0)-介绍重点概念)


一、KNN算法简介

K-近邻算法(K Nearest Neighbor,简称KNN)。

算法思想: 如果一个样本在特征空间中的 k 个最相似的样本中的大多数属于某一个类别,则该样本也属于这个类别

**思考:**如何确定相似性?

**答:**使用样本"距离"来确定,距离包括有欧氏距离、曼哈顿距离、切比雪夫距离;

首先我们来先了解几个概念:

**样本相似性:**样本都是属于一个任务数据集的。样本距离越近则越相似。

根据以上公式,我们计算未知样本与其它样本之间的距离,假设K=5:则选取距离样本10最近的5个样本,进行投票选举,喜剧类占多数,因此,样本10也被归为喜剧类。

注意K值的选择:

二、样本距离度量方式

2.1 欧式距离

**欧氏距离(Euclidean Distance):**两点之间的直线距离长度

2.2 曼哈顿距离

**曼哈顿距离(Manhattan Distance):**也称为"城市街区距离"(City Block distance),曼哈顿城市特点:横平竖直

2.3 切比雪夫距离

**切比雪夫距离 Chebyshev Distance:**国际象棋中,国王可以直行、横行、斜行,所以国王走一步可以移动到相邻8个方格中的任意一个。 国王从格子(x1,y1)走到格子(x2,y2)最少需要多少步?这个距离就叫切比雪夫距离。

总结

直接上图

三、 KNN算法API介绍

3.1 KNN 分类API

**语法:**sklearn.neighbors.KNeighborsClassifier(n_neighbors=5)

**n_neighbors:**int,可选(默认= 5),k_neighbors查询默认使用的邻居数

3.2 KNN 回归API

**语法:**sklearn.neighbors.KNeighborsRegressor(n_neighbors=5)

四、特征预处理

特征预处理的方式包括两种:归一化和标准化(常用)

为什么做归一化和标准化 ?

答: 特征的单位或者大小相差较大,或者某特征的方差相比其他的特征要大出几个数量级,**容易影响(支配)目标结果,使得一些模型(算法)无法学习到其它的特征。**如下图的体重;

4.1 归一化处理

**归一化:**通过对原始数据进行变换把数据映射到【mi,mx】(默认为[0,1])之间

数据归一化特点:

  1. 如果出现异常点,影响了最大值和最小值,那么结果显然会发生改变

  2. **应用场景:**最大值与最小值非常容易受异常点影响,鲁棒性较差,只适合传统精确小数据场景

  3. **API接口:**sklearn.preprocessing.MinMaxScaler (feature_range=(0,1)... )

4.2 数据标准化

数据标准化:通过对原始数据进行标准化,转换为均值为0标准差为1的标准正态分布的数据。

数据标准化特点:

  1. 如果出现异常点,由于具有一定数据量,少量的异常点对于平均值的影响并不大

  2. **应用场景:**适合现代嘈杂大数据场景。

  3. **API接口:**sklearn.preprocessing.StandardScaler( )

五、鸢尾花综合案例

5.1 实现流程如下

先导入需要的包:

python 复制代码
# 导包
import pandas as pd
# todo 数据分割
from sklearn.model_selection import train_test_split
# todo 数据标准化
from sklearn.preprocessing import  StandardScaler
# todo 导入KNN分类器
from sklearn.neighbors import KNeighborsClassifier
# todo 模型评估分数
from  sklearn.metrics import accuracy_score
  1. 导入数据
python 复制代码
my_irlr_data = pd.read_csv('data/iris.csv',sep=',',names=['花萼长','花萼宽','花瓣长','花瓣宽','标签'])
  1. 数据预处理
python 复制代码
# 划分数据,讲数据划分为训练集和测试集
X_train, X_test, y_train, y_test = (
    train_test_split(my_irlr_data.loc[:,'花萼长':'花瓣宽'],my_irlr_data['标签']
                     ,train_size=0.2,random_state=666,shuffle=True))

# 数据标准化
ss_model = StandardScaler()
x_train = ss_mode.fit_transform(X_train)
x_test = ssmode.transform(X_test)
  1. 模型训练
python 复制代码
mode = KNeighborClassifier(5)
pred = mode.fit(x_train)
  1. 模型测试
python 复制代码
y_pre = KNN_mode.predict(x_test)
  1. 模型预测
python 复制代码
y_pre = KNN_mode.predict(x_test)
acc = accuracy_score(y_test,y_pre)
print(f'准确率:{acc}')

总结

以上就是今天要讲的内容,本文主要讲解机器学习的入门案例知识;后续将会持续更新,请大家多多关注;若有不懂的可以随时问博主或者AI。

相关推荐
风象南1 天前
普通人用AI加持赚到的第一个100块
人工智能·后端
牛奶1 天前
2026年大模型怎么选?前端人实用对比
前端·人工智能·ai编程
牛奶1 天前
前端人为什么要学AI?
前端·人工智能·ai编程
哥布林学者1 天前
高光谱成像(一)高光谱图像
机器学习·高光谱成像
地平线开发者1 天前
SparseDrive 模型导出与性能优化实战
算法·自动驾驶
董董灿是个攻城狮1 天前
大模型连载2:初步认识 tokenizer 的过程
算法
地平线开发者1 天前
地平线 VP 接口工程实践(一):hbVPRoiResize 接口功能、使用约束与典型问题总结
算法·自动驾驶
罗西的思考1 天前
AI Agent框架探秘:拆解 OpenHands(10)--- Runtime
人工智能·算法·机器学习
冬奇Lab1 天前
OpenClaw 源码精读(2):Channel & Routing——一条消息如何找到它的 Agent?
人工智能·开源·源码阅读
冬奇Lab1 天前
一天一个开源项目(第38篇):Claude Code Telegram - 用 Telegram 远程用 Claude Code,随时随地聊项目
人工智能·开源·资讯