第四章 决策树

定义:监督学习方法,树状结构递归划分特征空间,最终实现分类和回归。

4.1基本流程

在出现以下三种情形会出现递归返回:
当前节点所有样本属于同一类别
当前可用特征集为空
样本划分结果为空,直接用原划分集合作为该结果

4.2划分选择

下三种计算方法是衡量决策树属性划分有效性的指标,但衡量标准不一样。

4.2.1信息增益

熵、噪音的定义
重点记住信息熵定义的计算公式。
下图为信息增益的概念理解:计算二层划分对于第一层直接算的熵值(需要消耗值)的提升。
上图详细给出信息增益的公式。在ID3决策树中,就是每次选择信息增益最大的属性进行划分,训练速度更快,成本更低。

4.2.2增益率

其中分母IV(a)起到了规范化的作用,方便进行数据比较。优化了信息增益对可取值数目较多属性的偏好。

4.2.3基尼指数

4.3剪枝处理

剪枝是缓解决策树过拟合的主要方法。
预剪枝:基于贪心算法,自上而下,当划分后验证集精度下降,就需要避免此划分。好处:不仅降低过拟合风险,还减少决策树的训练时间和测试时间开销。坏处:贪心算法,可能带来欠拟合风险。
后剪枝:根据生成后的决策树,好处:欠拟合风险小,泛化性能好于预剪枝。坏处:训练时间开销大于未剪枝和预剪枝。

4.4连续与缺失值

4.4.1连续值处理

就是每个间隔处都视为分割点,依次算出最大的信息增益,作为该属性的信息增益

4.4.2缺失值处理

只有最后算数据集信息增益时,需要乘以ρ,只算无缺失值的权重。

算增益率时,注意各样本权重的赋予。

4.5多变量决策树

在多变量决策树中,不是为每个非叶子节点寻找一个最优划分属性,而是试图找到一个合适的线性分类器
相关推荐
卷福同学31 分钟前
去掉手机APP开屏广告,李跳跳2.2下载使用
java·后端·算法
漫霂42 分钟前
二叉树的翻转
java·数据结构·算法
语戚42 分钟前
力扣 51. N 皇后:基础回溯、布尔数组优化、位运算全解(Java 实现)
java·算法·leetcode·力扣·剪枝·回溯·位运算
熊猫钓鱼>_>44 分钟前
从零构建大模型可调用的Skill:基于Function Calling的完整指南
人工智能·算法·语言模型·架构·agent·skill·functioncall
py有趣1 小时前
力扣热门100题之螺旋矩阵
算法·leetcode
xiaoyaohou111 小时前
003、轻量化改进(一):网络剪枝原理与实战
算法·机器学习·剪枝
极光代码工作室1 小时前
基于NLP的智能客服系统设计与实现
python·深度学习·机器学习·ai·自然语言处理
我是章汕呐1 小时前
政策评估的“黄金标准”:DID模型从原理到Stata实操
大数据·人工智能·经验分享·算法·回归
云程笔记1 小时前
021.损失函数深度解读:YOLO的定位、置信度、分类损失计算
人工智能·yolo·机器学习·计算机视觉·分类·数据挖掘
2301_822703201 小时前
光影进度条:鸿蒙Flutter实现动态光影效果的进度条
算法·flutter·华为·信息可视化·开源·harmonyos