《机器学习》决策树 C4.5算法、cart算法

一、什么是C4.5算法

1、概念

C4.5算法是一种决策树生成算法 ,它使用信息增益比(gain ratio) 来选择最优分裂属性,它是ID3算法的改进版本。

C4.5算法的核心思想 是选择信息增益比最大的特征作为节点进行划分,以获得最好的分类能力。它使用熵来度量数据集的不确定性,通过计算特征的信息增益来评估特征对分类的贡献程度。信息增益比越大,表示该特征对分类的影响越大。

公式及定义如下:

2、具体步骤如下:(全篇log底数为2)

1、 计算所有样本的类别熵(H)。

2、 对于每一个属性 ,计算该属性的熵【也为自身熵】(Hi)。

3、 对于每一个属性,计算该属性对于分类所能够带来的信息增益(Gi = H - Hi)。

4、 计算每个属性的信息增益比(gain ratio = Gi / Hi) ,即信息增益类别自身熵的比值。

选择具有最大信息增益比的属性作为分裂属性。

3、什么是自身熵

即不考虑标签解结果来只考虑自己本身类别的比例

例如:A集合:[1,1,1,2,2,3,3,3,3]

其自身熵为:-3/9log(3/9) - 2/9log(2/9) - 4/9log(4/9) = 1.5304930567574826(此处使用上节课所说的熵值计算公式)

所以集合A的自身熵为 1.5304930567574826

4、实例,依旧是上节课的文件

4.1 计算第一层节点

在上节课中,我们在第一步就求出了每个特征的信息增益,即:

outlook 信息增益= 标签熵值 - 总熵值 = 0.2471

自身熵 = -5/14log(5/14) - 4/14log(4/14) - 5/14log(5/14) = 1.577

信息增益率= 0.2471 / 1.577 = 0.1566

• temperature 信息增益 = 0.94 - 0.91 = 0.03

自身熵 = -4/14log(4/14) - 6/14log(6/14) - 4/14log(4/14) = 1.557

信息增益率= 0.03 / 1.557 = 0.0186

• humidity信息增益 = 0.94 - 0.788 = 0.152

自身熵 =-7/14log(7/14) - 7/14log(7/14) = 1.0

信息增益率= 0.152 / 1.0 =0.152

• windy信息增益= 0.94 - 0.89 = 0.05

自身熵 =-8/14log(8/14) - 6/14log(6/14) = 0.985

信息增益率= 0.05 / 0.985 = 0.049

所以有信息增益率的排序:

天气 > 湿度 > 有风 > 温度

由此可知第一个节点为天气

此时得到以下决策树图形:

4.2 计算第二层节点
4.2.1 对hot,将hot单独取出

play 标签熵值 = -2/5log(2/5) - 3/5log(3/5) = 0.97

temperature自身熵 = -2/5log(2/5) - 1/5log(1/5) - 2/5log(2/5) = 1.52

信息增益 = play标签熵值 - 总熵值 =0.97 -(2/5*hot熵 + 2/5 *milld熵 + 1/5 *cool熵)= 0.57

信息增益率 = 0.57 / 1.52 = 0.375

• humidity自身熵 = -3/5log(3/5) - 2/5log(2/5) = 0.97

信息增益 = 标签熵值 - 总熵值 = 0.97 - 0 = 0.97

信息增益率 = 1.0

• windy自身熵 = -3/5log(3/5) - 2/5log(2/5) = 0.97

信息增益 = 标签熵值 - 总熵值 = 0.97 - (3/5 * FALSE熵值 + 2/5 * TRUE熵值)= 0.0192

信息增益率 = 0.0192 / 0.97 = 0.02

由此可见,humidity天气信息增益率最大

4.2.2 对hot,将rainy单独取出

play 标签熵值 = -2/5log(2/5) - 3/5log(3/5) = 0.97

temperature自身熵 = -3/5log(3/5) - 2/5log(2/5) = 0.97

信息增益 = 0.97 - (3/5 * mild熵 + 2/5 * cool熵)= 0.0192

信息增益率 = 0.0192 / 0.97 = 0.02

• humidity自身熵 = -3/5log(3/5) - 2/5log(2/5) = 0.97

信息增益 = 标签熵值 - 总熵值 = 0.97 -(3/5 * normal熵 + 2/5 * high熵)= 0.0192

信息增益率 = 0.0192 / 0.97 = 0.02

• windy自身熵 = -3/5log(3/5) - 2/5log(2/5) = 0.97

信息增益 = 标签熵值 - 总熵值 = 0.97 - 0 = 0.97

信息增益率 = 1

所以由此可见,windy有风信息增益率最大

4.2.3 所以可得当前决策树图:

二、什么是CART算法

1、概念

在分类问题中,CART算法通过构建一棵二叉决策树,将数据集划分为多个子集,使得每个子集内的样本属于同一类别。它通过对特征进行划分,选择最优的切分点来构建决策树。

在回归问题中,CART算法同样构建一棵二叉决策树,但是目标是预测一个连续的数值。它通过对特征进行划分,选择最优的切分点来构建决策树。

CART算法的优点包括简单易于实现、具有较好的解释性、对非线性关系的建模能力强等。它在实际应用中被广泛应用于分类和回归问题的解决。

2、衡量标准

基尼指数,GINI,其公式及定义如下:

3、实例,有如下贷款申请数据表

首先计算各特征值的基尼系数,选择最优特征以及其最优切分点 ,选择最优特征以及以A1,A2,A3,A4表示有年龄、有工作、有自己的房子和信贷情况4个特征,并以1,2,3表示年龄的值为青年、中年、和老年,以1,2表示有工作和有自己房子的值为是和否,以1,2,3表示信贷情况的值为非常好、好、一般。

1)此时计算特征值为A1=1(青年)的基尼指数:
• 首先计算青年的基尼系数(5个青年,2个贷款)

青年的基尼系数为:2/5 *(1-2/5)+ 3/5 *(1-3/5)= 0.48

**注意:**如果是二分类,这里的基尼系数可以直接为:2p*(1-p) = 2*2/5(1-2/5) = 0.48

非青年的基尼系数为:2 * (3/10) * (1-3/10) = 0.42

**注意:**这里的非青年为中年和老年

所以,此时的总基尼指数 为:5/15 * 0.48 + 10/15 * 0.42 = 0.44

2) 此时计算特征值为A1=2(中年)的基尼指数:

直接看总公式:

3) 此时计算特征值为A1=3(老年)的基尼指数:

因为老年和青年一样最小 ,所以都可以作为最优切分点

4)计算所有特征的基尼指数

分别计算A2(有工作)、A3(有自己房子)、A4(信贷情况)的基尼指数

同样通过上一步得到

A2=1(有工作):基尼系数为 0

A2=0(没有工作):基尼系数为 2 * 6/10 * (1 - 6/10) = 0.48

所以A2总基尼指数为:0.48 * 10/15 = 0.32

同理:A3(有自己房子)基尼指数为 0.27

A4总基尼指数为 :

A4 =3(一般)基尼指数最小,为最优切分点

所以,在A1,A2,A3,A4几个特征中,Gini(D,A3=1)=0.27最小 ,所以选择特征A3为最优特征A3=1为其最优切分点 ,于是根结点生成两个子结点,一个是叶结点,对另一个结点继续使用以上方法在A1,A2,A4中选择最优特征及其最优切分点,结果是A2=1,依此计算得知,所得结点都是叶结点.

对于本问题,按照 CART算法所生成的决策树与按照 ID3算法所生成的决策树完全一致.

有上述结果可以画决策树如下所示:

剩下的方法和上述基本一致,即切分出有房子的和没有房子的两组,分别对有房子和没房子对应的整个数据求基尼指数,最后即可得到下一步,切分结果如下所示:

相关推荐
小言从不摸鱼7 分钟前
【AI大模型】ChatGPT模型原理介绍(下)
人工智能·python·深度学习·机器学习·自然语言处理·chatgpt
jiao0000131 分钟前
数据结构——队列
c语言·数据结构·算法
迷迭所归处2 小时前
C++ —— 关于vector
开发语言·c++·算法
leon6252 小时前
优化算法(一)—遗传算法(Genetic Algorithm)附MATLAB程序
开发语言·算法·matlab
CV工程师小林2 小时前
【算法】BFS 系列之边权为 1 的最短路问题
数据结构·c++·算法·leetcode·宽度优先
Navigator_Z2 小时前
数据结构C //线性表(链表)ADT结构及相关函数
c语言·数据结构·算法·链表
Aic山鱼3 小时前
【如何高效学习数据结构:构建编程的坚实基石】
数据结构·学习·算法
天玑y3 小时前
算法设计与分析(背包问题
c++·经验分享·笔记·学习·算法·leetcode·蓝桥杯
sjsjs113 小时前
【数据结构-一维差分】力扣1893. 检查是否区域内所有整数都被覆盖
数据结构·算法·leetcode
redcocal3 小时前
地平线秋招
python·嵌入式硬件·算法·fpga开发·求职招聘