一个简单的机器学习实战例程,使用Scikit-Learn库来完成一个常见的分类任务——**鸢尾花数据集(Iris Dataset)**的分类

机器学习实战通常是将理论与实践结合,通过实际的项目或案例,帮助你理解并应用各种机器学习算法。下面是一个简单的机器学习实战例程,使用Scikit-Learn库来完成一个常见的分类任务------**鸢尾花数据集(Iris Dataset)**的分类。我们将通过该数据集来演示数据预处理、模型训练、评估和预测的全过程。

访问更多内容来源 https://ai.tmqcjr.com

1. 安装所需库

首先,确保你已安装了scikit-learnmatplotlib等库,如果没有,请通过以下命令安装:

复制代码

bash

复制代码

pip install scikit-learn matplotlib

2. 机器学习实战例程

导入必要的库
复制代码

python

复制代码

import numpy as np import matplotlib.pyplot as plt from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler from sklearn.neighbors import KNeighborsClassifier from sklearn.svm import SVC from sklearn.tree import DecisionTreeClassifier from sklearn.ensemble import RandomForestClassifier from sklearn.metrics import classification_report, confusion_matrix, accuracy_score

加载数据集

我们使用Scikit-Learn自带的鸢尾花数据集,这是一个经典的机器学习数据集。

复制代码

python

复制代码

# 加载鸢尾花数据集 iris = load_iris() X = iris.data # 特征数据(花瓣和萼片的长度和宽度) y = iris.target # 标签数据(花的种类)

数据探索

在开始训练模型之前,我们可以对数据进行简单的探索,比如查看数据的维度和前几行。

复制代码

python

复制代码

# 查看数据集的结构 print(f"数据集的特征名称: {iris.feature_names}") print(f"数据集的标签名称: {iris.target_names}") print(f"数据集的特征形状: {X.shape}") print(f"数据集的标签形状: {y.shape}") # 查看前5行数据 print(f"特征数据:\n{X[:5]}") print(f"标签数据:\n{y[:5]}")

数据划分

我们将数据集划分为训练集和测试集,通常使用70%训练,30%测试的比例。

复制代码

python

复制代码

# 划分数据集为训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42) print(f"训练集的样本数量: {X_train.shape[0]}") print(f"测试集的样本数量: {X_test.shape[0]}")

数据预处理

在使用机器学习模型之前,通常需要对数据进行标准化处理,以便提高模型的性能。

复制代码

python

复制代码

# 数据标准化:将特征缩放至均值为0,方差为1的标准正态分布 scaler = StandardScaler() X_train = scaler.fit_transform(X_train) X_test = scaler.transform(X_test)

训练模型

我们将训练多个机器学习模型进行比较。这里使用常见的几种分类模型:K近邻(KNN)、支持向量机(SVM)、决策树和随机森林。

1. K近邻(KNN)
复制代码

python

复制代码

# 初始化KNN模型并训练 knn = KNeighborsClassifier(n_neighbors=3) knn.fit(X_train, y_train) # 在测试集上评估模型 y_pred_knn = knn.predict(X_test) print("KNN分类报告:") print(classification_report(y_test, y_pred_knn)) print(f"KNN的准确率: {accuracy_score(y_test, y_pred_knn)}")

2. 支持向量机(SVM)
复制代码

python

复制代码

# 初始化SVM模型并训练 svm = SVC(kernel='linear') svm.fit(X_train, y_train) # 在测试集上评估模型 y_pred_svm = svm.predict(X_test) print("SVM分类报告:") print(classification_report(y_test, y_pred_svm)) print(f"SVM的准确率: {accuracy_score(y_test, y_pred_svm)}")

3. 决策树(Decision Tree)
复制代码

python

复制代码

# 初始化决策树模型并训练 dt = DecisionTreeClassifier(random_state=42) dt.fit(X_train, y_train) # 在测试集上评估模型 y_pred_dt = dt.predict(X_test) print("决策树分类报告:") print(classification_report(y_test, y_pred_dt)) print(f"决策树的准确率: {accuracy_score(y_test, y_pred_dt)}")

4. 随机森林(Random Forest)
复制代码

python

复制代码

# 初始化随机森林模型并训练 rf = RandomForestClassifier(n_estimators=100, random_state=42) rf.fit(X_train, y_train) # 在测试集上评估模型 y_pred_rf = rf.predict(X_test) print("随机森林分类报告:") print(classification_report(y_test, y_pred_rf)) print(f"随机森林的准确率: {accuracy_score(y_test, y_pred_rf)}")

评估模型

使用classification_report来评估模型的性能,显示精确度(Precision)、召回率(Recall)和F1-score。accuracy_score则显示整体的分类准确率。

复制代码

python

复制代码

# 显示每个模型的准确率 models = ['KNN', 'SVM', '决策树', '随机森林'] accuracies = [ accuracy_score(y_test, y_pred_knn), accuracy_score(y_test, y_pred_svm), accuracy_score(y_test, y_pred_dt), accuracy_score(y_test, y_pred_rf) ] for model, accuracy in zip(models, accuracies): print(f"{model}的准确率: {accuracy}")

混淆矩阵

为了进一步分析模型的分类效果,可以绘制混淆矩阵。

复制代码

python

复制代码

# 绘制混淆矩阵 def plot_confusion_matrix(cm, classes): plt.figure(figsize=(6, 6)) plt.imshow(cm, interpolation='nearest', cmap=plt.cm.Blues) plt.title('Confusion Matrix') plt.colorbar() tick_marks = np.arange(len(classes)) plt.xticks(tick_marks, classes, rotation=45) plt.yticks(tick_marks, classes) plt.xlabel('Predicted label') plt.ylabel('True label') plt.tight_layout() # KNN模型的混淆矩阵 cm_knn = confusion_matrix(y_test, y_pred_knn) plot_confusion_matrix(cm_knn, iris.target_names) # 显示图形 plt.show()

预测新数据

最后,我们可以使用训练好的模型对新的数据进行预测。

复制代码

python

复制代码

# 使用KNN模型对新样本进行预测 new_data = np.array([[5.1, 3.5, 1.4, 0.2]]) # 一个新的样本(鸢尾花特征) new_data = scaler.transform(new_data) # 标准化 prediction = knn.predict(new_data) print(f"预测的花种类: {iris.target_names[prediction]}")

3. 模型总结

通过上述步骤,我们完成了以下内容:

  1. 数据加载与预处理:加载鸢尾花数据集并进行标准化处理。
  2. 模型训练与评估 :训练了4个常见的机器学习模型(KNN、SVM、决策树和随机森林),并通过classification_reportaccuracy_score评估了各个模型的性能。
  3. 模型预测:使用训练好的模型对新数据进行了预测。

4. 总结

  • KNN:适合用于小型数据集,计算复杂度较高。
  • SVM:对于中小型数据集效果不错,但训练时间较长。
  • 决策树:易于理解和解释,但容易过拟合。
  • 随机森林:通过集成多棵决策树,通常表现良好,减少了过拟合的风险。

在实际的机器学习项目中,你可以根据任务的特点选择合适的模型,并不断调整参数以优化模型的表现。

相关推荐
点云SLAM18 分钟前
CVPR 2024 人脸方向总汇(人脸识别、头像重建、人脸合成和3D头像等)
深度学习·计算机视觉·人脸识别·3d人脸·头像重建
涛涛讲AI29 分钟前
扣子平台音频功能:让声音也能“智能”起来
人工智能·音视频·工作流·智能体·ai智能体·ai应用
霍格沃兹测试开发学社测试人社区31 分钟前
人工智能在音频、视觉、多模态领域的应用
软件测试·人工智能·测试开发·自动化·音视频
herosunly1 小时前
2024:人工智能大模型的璀璨年代
人工智能·大模型·年度总结·博客之星
PaLu-LI1 小时前
ORB-SLAM2源码学习:Initializer.cc(13): Initializer::ReconstructF用F矩阵恢复R,t及三维点
c++·人工智能·学习·线性代数·ubuntu·计算机视觉·矩阵
呆呆珝1 小时前
RKNN_C++版本-YOLOV5
c++·人工智能·嵌入式硬件·yolo
笔触狂放1 小时前
第一章 语音识别概述
人工智能·python·机器学习·语音识别
ZzYH221 小时前
文献阅读 250125-Accurate predictions on small data with a tabular foundation model
人工智能·笔记·深度学习·机器学习
格林威1 小时前
BroadCom-RDMA博通网卡如何进行驱动安装和设置使得对应网口具有RDMA功能以适配RDMA相机
人工智能·数码相机·opencv·计算机视觉·c#
FL16238631291 小时前
汽车表面划痕刮伤检测数据集VOC+YOLO格式1221张1类别
深度学习·yolo·汽车