机器学习-KNN算法

1.机器学习概述(全部流程)

获取数据:from sklearn.datasets import load_wine

数据处理(数据集划分、标准化):from sklearn.model_selection import train_test_split

from sklearn.preprocessing import StandardScaler

特征工程:from sklearn.featrue_extraction import DictVectorizer(字典列表特征提取)

from sklearn.featrue_extraction import CountVectorizer(文本特征提取)

from sklearn.featrue_extraction import TfidfVectorizer(TF-IDF文本特征词的重要程度特征提取)

这上面是特征提取,可以任选其一。

from sklearn.decomposition imoprt PCA(特征降维)

实例化预估器(生成模型):from sklearn.neighbors import KNeighborsClassifier

训练模型:model.fit(x_train_pca,y_train)

模型评估:model.score(x_test_pca,y_test)

预测数据:model.predict(x_new)

2.knn算法介绍

KNN(K - Nearest Neighbor)即 k 近邻算法 ,是一种基本的监督学习方法,既能用于分类,也能用于回归。

简单来说就是 "物以类聚,人以群分" 。算法假定给定一个训练数据集,其中实例的类别是已知的。在进行分类(或回归)时 ,对于一个新的实例,通过寻找其 k 个最近邻的训练实例 ,依据这些近邻的类别(或数值 )情况,通过多数表决(分类任务 )来预测新实例的类别(或数值 ) 。例如,在判断一个水果是苹果还是梨时,计算该水果与已知苹果和梨在颜色、大小等特征上的距离,选取距离最近的 k 个水果,根据它们中苹果或梨占比多的类别来判断新水果的类别。

简单来说计算步骤就是:

(1)计算实例与训练集中的每一个样本的距离;

(2)确定k的值;

(3)统计这k个值的分类结果,最多的就是实例的分类结果。

3.样本距离判断

3.1欧氏距离--L2距离

3.2曼哈顿距离-L1距离

4.原理

根据K个邻居样本的类别来判断当前样本的类别;

如果一个样本在特征空间中的k个最相似(最邻近)样本中的大多数属于某个类别,则该类本也属于这个类别

比如: 有10000个样本,选出7个到样本A的距离最近的,然后这7个样本中假设:类别1有2个,类别2有3个,类别3有2个.那么就认为A样本属于类别2,因为它的7个邻居中 类别2最多(近朱者赤近墨者黑)

k为邻居数---哪个类型的邻居多,那这个就是什么类型。

5.API

class sklearn.neighbors.KNeighborsClassifier(n_neighbors=5,algorithm='auto')

algorithm参数是 KNN 等算法的性能优化工具 ,与模型的预测逻辑无关。在实际开发中,建议使用默认值'auto',系统会根据数据特性自动选择最优方案。只有在对特定场景有深入了解(如高维数据、大规模数据)时,才需手动调整该参数。

6.模型保存与加载

导入库:import joblib

保存模型:joblib.dump(model,'my_ridge.pk1')

加载模型:joblib.load('my_ridge.pk1')

预测数据:y_pred = model.predict(data)

如果想保存在其他路径:

7.KNN葡萄酒案例

根据本文章的第一条内容来写:

也可以再结合模型保存,进行预测数据。这样的好处就是之后不用全部再训练一次,可以直接拿出来用。

python 复制代码
from sklearn.datasets import load_wine
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.decomposition import PCA
from sklearn.neighbors import KNeighborsClassifier
import joblib
# 第一步加载数据
wine = load_wine()
print(wine.data.shape)  #查看数据集形状

# 第二步划分数据集
x_train,x_test,y_train,y_test = train_test_split(wine.data,wine.target,test_size=0.3,random_state=44)
# 将模型划分为训练集和测试集,x为数据内容,y为标签(结果)内容

# 第三步标准化--标准化x
scaler = StandardScaler()
x_train_scaler = scaler.fit_transform(x_train)
x_test_scaler = scaler.transform(x_test)
# print('我是标准化后的x训练集:',x_train_scaler)
# print('我是标准化后的x测试集:',x_test_scaler)

# 第四步特征降维--也是对x进行特征工程处理
pca = PCA(n_components=8) #将原本13个列标签的数据全部降维为8个标签的数据
x_train_pca = pca.fit_transform(x_train_scaler)
x_test_pca = pca.transform(x_test_scaler)
# print('我是降维后的x训练集:',x_train_pca)
# print('我是降维后的x测试集:',x_test_pca)

# 第五步生成模型
estimator = KNeighborsClassifier(n_neighbors=7)
# 紧接着训练模型
estimator.fit(x_train_pca,y_train)

# 第六步预测测试集
y_pred = estimator.predict(x_test_pca)
print('预测x测试集:\n',y_pred)
#对比真实值、预测值:布尔
print('x_test的预测值与真实值y_test直接对比:\n',y_test == y_pred)

# 第七步评估模型准确率
score = estimator.score(x_test_pca,y_test)
print('评分为(准确率为):\n',score)
# 第八步保存模型
joblib.dump(estimator,'机器学习sklearn/srcc/save_model/knn_estimator.pkl')
# 第九步加载模型预测新数据
estimator = joblib.load('机器学习sklearn/srcc/save_model/knn_estimator.pkl')
new_pred = estimator.predict([[12,3,0,6,7,1,9,3]])
print('我是模型加载预测的值:\n',new_pred)

结果:

(178, 13)

预测x测试集:

0 1 0 2 2 0 1 1 0 1 0 0 1 0 1 1 1 0 0 0 0 2 0 0 0 0 2 2 2 1 1 2 1 1 1 0 0 2 2 0 1 1 0 0 1 2 2 1 2 0 1 1 0 1

x_test的预测值与真实值y_test直接对比:

True True True True True True True True True True True False True True True True True True True True True True **False** True True True True True True True True True True True True True True True True True True True True True True True True True True True True True True True

评分为(准确率为):

0.9629629629629629

我是模型加载预测的值:

0

相关推荐
2301_816651222 分钟前
C++中的策略模式高级应用
开发语言·c++·算法
AI-Ming3 分钟前
注意力机制拓展-大模型知识点(程序员转行AI大模型学习)
人工智能·学习
LDR0063 分钟前
如何使用OpenClaw提高工作效率?
数据结构·算法
liuyao_xianhui3 分钟前
优选算法_模拟_替换所有的‘?‘_C++
开发语言·javascript·数据结构·c++·算法·链表·动态规划
Mintopia4 分钟前
agent-cli 哪家强?别只看“能跑”,要看“能交付”
人工智能
kishu_iOS&AI7 分钟前
PyCharm 结合 uv 进行 AI 大模型开发
人工智能·pycharm·大模型·uv
币之互联万物9 分钟前
LLM 偏好算法解析:大语言模型内容收录倾向与 NEOXGEO 技术底蕴
人工智能·算法·语言模型
菜鸟小九12 分钟前
hot100(81-90)
java·数据结构·算法
Mintopia13 分钟前
衡量AI水平的六个核心指标:别再只看跑分了
人工智能