【人工智能-初级】第6章 决策树和随机森林:浅显易懂的介绍及Python实践

文章目录

    • 一、决策树简介
    • 二、决策树的构建原理
      • [2.1 决策树的优缺点](#2.1 决策树的优缺点)
    • 三、随机森林简介
      • [3.1 随机森林的构建过程](#3.1 随机森林的构建过程)
      • [3.2 随机森林的优缺点](#3.2 随机森林的优缺点)
    • 四、Python实现决策树和随机森林
      • [4.1 导入必要的库](#4.1 导入必要的库)
      • [4.2 加载数据集并进行预处理](#4.2 加载数据集并进行预处理)
      • [4.3 创建决策树模型并进行训练](#4.3 创建决策树模型并进行训练)
      • [4.4 可视化决策树](#4.4 可视化决策树)
      • [4.5 创建随机森林模型并进行训练](#4.5 创建随机森林模型并进行训练)
      • [4.6 模型预测与评估](#4.6 模型预测与评估)
    • 五、总结
      • [5.1 学习要点](#5.1 学习要点)
      • [5.2 练习题](#5.2 练习题)

一、决策树简介

决策树(Decision Tree)是一种树状结构的监督学习算法,可以用于分类和回归任务。它通过递归地将数据划分成不同的子集,直至每个子集只包含一个类别(对于分类问题)或达到某种特定的条件(对于回归问题)。

决策树非常直观,类似于人们在做决定时的思维过程。例如,在判断是否买房时,可能会依次考虑预算、房屋位置和是否满足个人需求等因素。决策树的结构由节点(node)和边(branch)组成,节点表示数据特征,边表示根据特征划分的数据路径。

二、决策树的构建原理

决策树的构建过程主要包括以下几步:

  1. 选择特征进行分裂:在每个节点,选择一个特征对数据进行划分,使得划分后的子集之间的纯度(或均匀度)尽可能高。
  2. 分裂节点:根据选择的特征将数据划分为两个或多个子集。
  3. 停止条件:递归地对每个子集构建子节点,直至满足停止条件(如树的最大深度,或节点中的样本数小于某个阈值)。

在选择特征进行分裂时,通常会使用一些标准来衡量子集的纯度,包括:

  • 基尼不纯度(Gini Impurity) :用于衡量节点中样本的混杂程度,值越小表示节点越纯。
    G = 1 − ∑ i = 1 k p i 2 G = 1 - \sum_{i=1}^{k} p_i^2 G=1−i=1∑kpi2

    其中,p_i 表示第 i 类样本的比例。

  • 信息增益(Information Gain) :用于衡量使用某个特征划分后的不确定性减少的程度。
    I G = H ( D ) − ∑ i = 1 m ∣ D i ∣ ∣ D ∣ H ( D i ) IG = H(D) - \sum_{i=1}^{m} \frac{|D_i|}{|D|} H(D_i) IG=H(D)−i=1∑m∣D∣∣Di∣H(Di)

    其中,H(D) 表示数据集 D 的熵,|D_i| 表示划分后的子集 D_i 的大小。

2.1 决策树的优缺点

优点
  1. 易于理解:决策树的结构简单直观,可以将复杂的决策过程可视化。
  2. 适应性强:决策树能够处理数值型和类别型特征,并且对数据的预处理要求较低。
  3. 能够处理多类别问题:决策树可以自然地处理多类别的分类问题。
缺点
  1. 容易过拟合:当决策树的深度过大时,模型容易学习到数据中的噪声,导致过拟合。
  2. 对小数据变化敏感:由于决策树的每一次划分都会影响后续的结构,数据的轻微变化可能会导致决策树的结构发生较大变化。

三、随机森林简介

随机森林(Random Forest)是一种集成学习方法,通过结合多个决策树的预测结果来提高分类或回归的性能。它通过随机采样和特征选择来生成多个相互独立的决策树,并将这些决策树的输出通过投票(分类任务)或平均(回归任务)来得到最终的预测结果。

3.1 随机森林的构建过程

  1. 随机采样 :从原始数据集中有放回地随机抽取样本,生成多个训练数据集,这一过程称为 Bagging(Bootstrap Aggregating)
  2. 特征选择:在构建每棵决策树时,随机选择部分特征用于分裂节点,以保证每棵树的多样性。
  3. 集成决策:对于分类任务,通过投票的方式决定最终分类结果;对于回归任务,通过取平均值来得到最终预测结果。

3.2 随机森林的优缺点

优点
  1. 高准确率:由于随机森林结合了多个决策树,能够显著提高模型的准确率和鲁棒性。
  2. 防止过拟合:随机森林通过随机采样和特征选择,减少了单棵决策树可能出现的过拟合问题。
  3. 特征重要性:随机森林可以评估每个特征对分类结果的重要性,从而帮助理解数据。
缺点
  1. 计算复杂度高:构建和集成多个决策树需要较高的计算资源和时间。
  2. 不可解释性:相比单棵决策树,随机森林的结构更复杂,不容易进行可视化和解释。

四、Python实现决策树和随机森林

接下来我们通过Python来实现决策树和随机森林,使用 scikit-learn 库来帮助我们完成这一任务。

4.1 导入必要的库

首先,我们需要导入一些必要的库:

python 复制代码
import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier, plot_tree
from sklearn.ensemble import RandomForestClassifier
from sklearn.metrics import accuracy_score, confusion_matrix, classification_report
  • numpy:用于数值计算。
  • matplotlib:用于数据可视化。
  • sklearn.datasets :用于加载 Iris 数据集,这是一个经典的多分类数据集。
  • train_test_split:用于将数据集拆分为训练集和测试集。
  • DecisionTreeClassifier:用于创建决策树分类器。
  • RandomForestClassifier:用于创建随机森林分类器。
  • accuracy_score, confusion_matrix, classification_report:用于评估模型的性能。

4.2 加载数据集并进行预处理

我们使用 Iris 数据集,这是一个常用的多分类数据集,包含三类花(山鸢尾、变色鸢尾、维吉尼亚鸢尾),每类有50个样本。

python 复制代码
# 加载Iris数据集
data = load_iris()
X = data.data
y = data.target

# 将数据集拆分为训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
  • load_iris() :加载Iris数据集,X 是特征矩阵,y 是标签。
  • train_test_split:将数据集拆分为训练集和测试集,20%的数据用于测试。

4.3 创建决策树模型并进行训练

我们创建一个决策树分类器,并用训练集进行模型训练。

python 复制代码
# 创建决策树分类器
dt = DecisionTreeClassifier(criterion='gini', max_depth=3, random_state=42)

# 训练模型
dt.fit(X_train, y_train)
  • DecisionTreeClassifier(criterion='gini', max_depth=3):创建决策树分类器,使用基尼不纯度作为分裂标准,最大深度为3。
  • dt.fit(X_train, y_train):用训练数据拟合决策树模型。

4.4 可视化决策树

为了更好地理解决策树的结构,我们可以使用 plot_tree 方法对其进行可视化。

python 复制代码
# 可视化决策树
plt.figure(figsize=(12, 8))
plot_tree(dt, filled=True, feature_names=data.feature_names, class_names=data.target_names)
plt.show()

通过上述代码,我们可以看到决策树的结构,包括每个节点的特征、基尼不纯度、样本数量以及类别分布。

4.5 创建随机森林模型并进行训练

接下来,我们创建一个随机森林分类器,并用训练集进行模型训练。

python 复制代码
# 创建随机森林分类器
rf = RandomForestClassifier(n_estimators=100, criterion='gini', random_state=42)

# 训练模型
rf.fit(X_train, y_train)
  • RandomForestClassifier(n_estimators=100, criterion='gini'):创建随机森林分类器,包含100棵决策树,使用基尼不纯度作为分裂标准。
  • rf.fit(X_train, y_train):用训练数据拟合随机森林模型。

4.6 模型预测与评估

使用测试集对决策树和随机森林模型分别进行预测,并评估其性能。

python 复制代码
# 决策树预测
y_pred_dt = dt.predict(X_test)
accuracy_dt = accuracy_score(y_test, y_pred_dt)
print(f"决策树模型的准确率: {accuracy_dt * 100:.2f}%")

# 随机森林预测
y_pred_rf = rf.predict(X_test)
accuracy_rf = accuracy_score(y_test, y_pred_rf)
print(f"随机森林模型的准确率: {accuracy_rf * 100:.2f}%")
  • dt.predict(X_test)rf.predict(X_test):分别对测试集进行预测。
  • accuracy_score:计算预测的准确率。

我们可以看到随机森林模型的准确率通常比单棵决策树要高,这是因为随机森林通过集成多个决策树的预测结果来提高模型的泛化能力。

五、总结

决策树是一种简单直观的监督学习算法,可以用于分类和回归任务。它通过递归地将数据划分成不同的子集,直至达到某种特定的条件。随机森林则是通过结合多个决策树来提高模型的性能,是一种强大的集成学习方法。

5.1 学习要点

  1. 决策树原理:决策树通过递归划分数据来建立分类或回归模型,使用基尼不纯度或信息增益来衡量划分的好坏。
  2. 随机森林原理:随机森林结合了多个决策树,通过随机采样和特征选择来提高模型的准确率和鲁棒性。
  3. Python实现 :可以使用 scikit-learn 库中的 DecisionTreeClassifierRandomForestClassifier 轻松实现决策树和随机森林。

5.2 练习题

  1. 使用决策树对 Iris 数据集进行回归任务,观察模型的表现。
  2. 使用 sklearn.datasets 模块中的 load_wine 数据集,构建一个随机森林分类模型,预测葡萄酒的类别。
  3. 尝试调整决策树和随机森林的参数,如树的最大深度、估计器数量等,观察模型的性能变化。

希望本文能帮助您更好地理解决策树和随机森林的基本概念和实现方法。下一篇文章将为您介绍K-Means聚类及其Python实现。如果有任何问题,欢迎在评论中讨论!

相关推荐
ZHOU_WUYI3 小时前
3.langchain中的prompt模板 (few shot examples in chat models)
人工智能·langchain·prompt
如若1233 小时前
主要用于图像的颜色提取、替换以及区域修改
人工智能·opencv·计算机视觉
老艾的AI世界4 小时前
AI翻唱神器,一键用你喜欢的歌手翻唱他人的曲目(附下载链接)
人工智能·深度学习·神经网络·机器学习·ai·ai翻唱·ai唱歌·ai歌曲
DK221514 小时前
机器学习系列----关联分析
人工智能·机器学习
Robot2514 小时前
Figure 02迎重大升级!!人形机器人独角兽[Figure AI]商业化加速
人工智能·机器人·微信公众平台
浊酒南街5 小时前
Statsmodels之OLS回归
人工智能·数据挖掘·回归
畅联云平台5 小时前
美畅物联丨智能分析,安全管控:视频汇聚平台助力智慧工地建设
人工智能·物联网
加密新世界5 小时前
优化 Solana 程序
人工智能·算法·计算机视觉
hunteritself6 小时前
ChatGPT高级语音模式正在向Web网页端推出!
人工智能·gpt·chatgpt·openai·语音识别
Che_Che_6 小时前
Cross-Inlining Binary Function Similarity Detection
人工智能·网络安全·gnn·二进制相似度检测