从零开始:scikit-learn决策树分类实战

在这个大数据和人工智能盛行的时代,机器学习已经成为了人们日常生活中不可或缺的一部分。从推荐系统到自动驾驶,背后都有机器学习的身影。今天,我们将一起探索一种简单却强大的机器学习算法------决策树,并使用Python中的scikit-learn库来实现对经典的鸢尾花数据集进行分类。

一、鸢尾花数据集简介

鸢尾花数据集(Iris dataset)是机器学习领域中最著名的数据集之一,由英国统计学家和生物学家Ronald Fisher于1936年整理发布。该数据集包含了150个样本,每个样本有四个特征:萼片长度、萼片宽度、花瓣长度和花瓣宽度,以及一个标签,指示该样本属于三种鸢尾花中的哪一种(Setosa、Versicolor、Virginica)。

二、决策树算法概述

决策树是一种监督学习算法,可用于分类和回归任务。它通过递归地将数据集划分成多个子集,直到每个子集中的样本都属于同一类别为止。决策树的每个内部节点表示一个特征上的测试,每个分支代表一个测试输出,而每个叶子节点则表示一个类别。

在scikit-learn中,决策树算法有两个主要实现:DecisionTreeClassifier用于分类任务,DecisionTreeRegressor用于回归任务。本文将专注于分类任务。

三、使用scikit-learn构建决策树

3.1 准备环境

首先,确保安装了Python和scikit-learn。如果还没有安装,可以使用pip命令安装:

bash 复制代码
pip install scikit-learn

3.2 导入必要的库

python 复制代码
from sklearn.datasets import load_iris
from sklearn.tree import DecisionTreeClassifier
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
import matplotlib.pyplot as plt
from sklearn.tree import plot_tree

3.3 加载数据集

python 复制代码
# 加载鸢尾花数据集
iris = load_iris()
X = iris.data
y = iris.target

3.4 数据集划分

复制代码
# 将数据集划分为训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)

3.5 构建决策树模型

python 复制代码
# 创建决策树分类器实例
clf = DecisionTreeClassifier(random_state=42)

# 训练模型
clf.fit(X_train, y_train)

3.6 模型评估

python 复制代码
# 预测测试集的结果
y_pred = clf.predict(X_test)

# 输出准确率
accuracy = accuracy_score(y_test, y_pred)
print(f"Accuracy: {accuracy:.2f}")

3.7 可视化决策树

python 复制代码
plt.figure(figsize=(20, 10))
plot_tree(clf, filled=True, feature_names=iris.feature_names, class_names=iris.target_names)
plt.show()

四、代码解析

让我们快速回顾一下上述代码的关键部分:

  1. 加载数据集 :我们使用了load_iris()函数直接从scikit-learn中加载鸢尾花数据集。
  2. 数据集划分 :使用train_test_split()函数将数据集划分为训练集和测试集,其中测试集占30%。
  3. 模型训练 :创建了一个DecisionTreeClassifier实例,并使用训练数据对其进行训练。
  4. 模型评估:通过比较模型预测结果与真实标签来计算准确率。
  5. 可视化 :最后,我们使用plot_tree()函数来可视化决策树,以便更好地理解决策路径。

五、结论

通过简单的几步,我们已经成功地使用scikit-learn构建了一个决策树模型,并且对鸢尾花数据集进行了分类。决策树不仅易于理解和实现,而且能够产生很好的可视化效果,非常适合初学者入门。

希望这篇文章能激发你对机器学习的兴趣,并鼓励你探索更多有趣的数据集和算法。现在,你可以试着修改决策树的参数,比如最大深度、最小样本数等,看看这些变化如何影响模型的表现吧!

相关推荐
石去皿4 小时前
文本分类常见面试篇:从 fastText 到 TextCNN 的核心考点全解析
面试·分类·数据挖掘
追风少年ii8 小时前
内容复习--邻域分子聚类与邻域细胞聚类的生物学意义及异同
分类·数据挖掘·空间·单细胞·cn
是小蟹呀^8 小时前
【论文比较】从 DeepSRC 到 BSSR:当“稀疏表示”遇上“深度学习”,算法是如何进化的?
深度学习·分类·deepsrc·bssr
是小蟹呀^1 天前
【论文阅读15】告别死板!ElasticFace 如何用“弹性边缘”提升人脸识别性能
论文阅读·深度学习·分类·elasticface
Katecat996631 天前
基于深度学习的虹膜识别与分类系统,结合tood_r50_fpn_anchor-based_1x_coco模型实现
人工智能·深度学习·分类
qq_454245032 天前
计算机与AI领域中的“上下文”:多维度解析
数据结构·人工智能·分类
癫狂的兔子2 天前
【Python】【机器学习】决策树
python·决策树·机器学习
Katecat996632 天前
【深度学习】Faster-RCNN改进:钩子状态识别与分类三种状态自动检测
人工智能·深度学习·分类
是小蟹呀^2 天前
【论文阅读13】AdaFace:低画质人脸识别的破局之作,用“特征范数”重塑损失函数!
论文阅读·深度学习·分类·adaface
小雨中_3 天前
2.7 强化学习分类
人工智能·python·深度学习·机器学习·分类·数据挖掘