如何构建多层决策树

构建一颗多层的决策树时,通过递归选择最佳划分特征(依据 信息增益基尼系数 )对数据集进行划分,直到满足停止条件(例如叶节点纯度达到要求或树的深度限制)。以下是基于 信息增益基尼系数 的递推公式和推导过程:


1. 基于信息增益的递推公式与推导

信息增益的目标是选择能够 最大化信息增益 的特征 和对应的分割点 t ,划分数据集 D 为​。

递推公式

信息增益计算公式:

信息增益定义为划分前后的信息熵差值:

  • H(D):数据集 D 的信息熵。
  • :数据集 D 按特征 cc 和分割点 t 划分后的条件熵。
信息熵公式:

对于一个数据集 D(含 n 个样本,类别数为 k ),信息熵定义为:

其中,,即类别 的样本数占总样本数的比例。

条件熵公式:

数据集 D 按特征 和分割点 t 划分后:

  • 左子集:
  • 右子集:

条件熵为:

其中:

递推推导过程

  1. 初始化根节点

    • 输入初始数据集 D 。
    • 计算信息熵 H(D) 。
  2. 选择划分特征和分割点

    • 对每个特征 和可能的分割点 t,计算信息增益
    • 遍历所有特征和分割点,选择 最大的 和 t 。
  3. 递归划分

    • 使用最优特征 和分割点 t 划分数据集:
      • 左子集
      • 右子集
    • 重复上述过程,直到满足停止条件。

2. 基于基尼系数的递推公式与推导

CART 决策树使用 基尼指数 作为划分标准。目标是选择使 加权基尼系数最小 的特征 XjX_jXj​ 和分割点 t 。

递推公式

基尼系数公式:

对于数据集 D ,基尼系数定义为:

其中, ​。

加权基尼指数公式:

数据集 D 按特征 和分割点 t 划分后,计算加权基尼指数:

其中:


递推推导过程

  1. 初始化根节点

    • 输入初始数据集 D 。
    • 计算基尼系数 Gini(D) 。
  2. 选择划分特征和分割点

    • 对每个特征 和可能的分割点 t ,计算加权基尼指数:
    • 遍历所有特征和分割点,选择使 最小的 和 t 。
  3. 递归划分

    • 使用最优特征 和分割点 t 划分数据集:
      • 左子集
      • 右子集
    • 重复上述过程,直到满足停止条件。

3. 决策树构建停止条件

  • 样本全部属于同一类别(纯度为 1)。
  • 数据集不能再划分(没有剩余特征或达到深度限制)。
  • 划分后的子集样本数太小,停止进一步划分。

4. 总结递推公式

信息增益递推公式:

基尼系数递推公式:

在决策树构建过程中,通过递归应用上述公式,选择最优的特征和分割点 t 来划分数据,最终构建完整的树。

相关推荐
国科安芯4 分钟前
光电传感器领域国产MCU芯片抗辐照技术考量
网络·人工智能·单片机·嵌入式硬件·安全
坚持编程的菜鸟7 分钟前
LeetCode每日一题——Pow(x, n)
c语言·算法·leetcode
junziruruo8 分钟前
半监督学习,少样本学习和零样本学习
python·学习·机器学习
csdn_aspnet13 分钟前
分享MATLAB在数据分析与科学计算中的高效算法案例
算法·matlab·数据分析
白云千载尽17 分钟前
moveit使用和机器人模型与状态--正向运动学和逆向运动学分析(四)
算法·机器人·逆运动学·moveit·正向运动学
木昆子21 分钟前
大模型流式输出:七大底层传输技术对比探究
人工智能·http·ai编程
我想吃余26 分钟前
【0基础学算法】前缀和刷题日志(三):连续数组、矩阵区域和
算法·矩阵·哈希算法
拓端研究室26 分钟前
专题:2025机器人产业的变革与展望白皮书:人形机器人与工业机器人洞察|附130+份报告PDF、数据、绘图模板汇总下载
人工智能·机器人·pdf
Luhui_Dev29 分钟前
AI 自主决定记忆:探索 A-MEM、Mem-α 和 Mem0
人工智能
Small___ming32 分钟前
【人工智能数学基础】什么是高斯分布/正态分布?
人工智能·概率论