0. 引言
大家好!今天我们要学习一种像"做选择题"一样的机器学习算法------决策树。想象你站在西瓜摊前,如何通过观察西瓜的特征(比如颜色、形状、声音)快速判断它是好瓜还是坏瓜?决策树就是帮你做这种"智能选择"的工具。让我们通过吃瓜群众最爱的例子,轻松掌握这个算法!
1. 决策树是什么?
1.1 生活中的决策树
假设你要买西瓜,可能会这样思考:
erlang
西瓜颜色是青绿吗?
├─是→ 瓜蒂是否蜷缩?
│ ├─是→ 敲击声是否浑浊?
│ │ ├─是→ 好瓜!
│ │ └─否→ 继续检查...
│ └─否→ 可能是生瓜
└─否→ 看看是不是乌黑皮...
这就是一棵简单的决策树!每个判断节点(如颜色、瓜蒂)都会引导我们走向最终结论。
1.2 专业版决策树
在机器学习中,决策树由以下部分组成:
- 根节点:第一个判断条件(如"纹理是否清晰")
- 内部节点:中间判断条件
- 叶节点:最终结论(是/否好瓜)
2. 如何构建决策树?
2.1 关键问题:选哪个特征先判断?
就像做选择题时要选最有区分度的问题,决策树需要选择"最有价值"的特征优先判断。这里引入三个重要概念:
2.1.1 信息熵(数据混乱度)
- 通俗解释:想象一个装满红蓝球的箱子,如果红蓝各半(混乱度高),熵值就大;如果全是红球(很整齐),熵值就小。
- 公式 :
熵 = -Σ(概率 × log概率)
(不用记公式,知道概念就好)
2.1.2 信息增益(划分后的整洁度提升)
- 通俗解释:用某个特征划分数据后,混乱度降低了多少。比如先按"纹理"分,好瓜/坏瓜的区分更明显,说明信息增益大。
- 例子:西瓜数据中,按"纹理"划分的信息增益(0.381)远高于"触感"(0.006),所以优先选纹理。
2.1.3 增益率(修正版信息增益)
- 问题:如果某个特征有很多取值(如"编号"),信息增益可能虚高
- 解决:C4.5算法引入增益率,相当于给信息增益加了个"公平秤",避免偏向取值多的特征
2.1.4 基尼指数(不纯度指标)
- 通俗解释:随机抽两个样本,类别不同的概率。基尼指数越小,数据越"纯"
- 公式 :
基尼指数 = 1 - Σ(概率²)
3. 经典算法对比
算法 | 特征选择标准 | 树结构 | 特点 |
ID3 | 信息增益 | 多叉树 | 基础版,但偏好取值多的特征 |
C4.5 | 增益率 | 多叉树 | 支持缺失值,能处理连续数据 |
CART | 基尼指数 | 二叉树 | 可做分类和回归,效率更高 |
4. 实战案例:西瓜分类
4.1 数据集
我们用《西瓜书》中的经典数据集(简化版):
编号 | 色泽 | 根蒂 | 敲声 | 纹理 | 好瓜 |
1 | 青绿 | 蜷缩 | 浑浊 | 清晰 | 是 |
2 | 乌黑 | 蜷缩 | 沉闷 | 清晰 | 是 |
3 | 青绿 | 硬挺 | 清脆 | 模糊 | 否 |
4 | 乌黑 | 稍蜷 | 稍糊 | 稍糊 | 否 |
5 | 浅白 | 硬挺 | 清脆 | 模糊 | 否 |
6 | 青绿 | 稍蜷 | 稍糊 | 稍糊 | 否 |
4.2 信息增益计算全过程
目标:找出最优划分特征(色泽/根蒂/敲声/纹理)
4.2.1 计算初始熵
- 好瓜:2个,坏瓜:4个
- 熵 = -[(2/6)log₂(2/6) + (4/6)log₂(4/6)] ≈ 0.918
4.2.2 计算各特征的信息增益
① 纹理特征(取值:清晰、稍糊、模糊)
- 清晰(2样本) :2好瓜 → 熵=0
- 稍糊(2样本) :0好瓜 → 熵=0
- 模糊(2样本) :0好瓜 → 熵=0
- 条件熵 = (2/6)*0 + (2/6)*0 + (2/6)*0 = 0
- 信息增益 = 0.918 - 0 = 0.918(最大)
② 根蒂特征(蜷缩、硬挺、稍蜷)
- 蜷缩(2样本) :2好瓜 → 熵=0
- 硬挺(2样本) :0好瓜 → 熵=0
- 稍蜷(2样本) :0好瓜 → 熵=0
- 信息增益=0.918(与纹理相同)
③ 色泽特征(青绿、乌黑、浅白)
- 青绿(3样本) :1好瓜,2坏瓜 → 熵=-(1/3log₂1/3 + 2/3log₂2/3)≈0.918
- 乌黑(2样本) :1好瓜,1坏瓜 → 熵=1
- 浅白(1样本) :0好瓜 → 熵=0
- 条件熵 = (3/6)*0.918 + (2/6)*1 + (1/6)*0 ≈0.795
- 信息增益 =0.918-0.795=0.123
结论:纹理和根蒂的信息增益最大,但实际数据中纹理更优(完整数据集计算会更复杂)
5. 进阶技巧
5.1 基尼指数计算示例
用编号1-6的数据计算"根蒂"特征的基尼指数:
- 蜷缩(2样本) :基尼=1 - (2/2)² - (0/2)² = 0
- 硬挺(2样本) :基尼=1 - (0/2)² - (2/2)² = 0
- 稍蜷(2样本) :基尼=1 - (0/2)² - (2/2)² = 0
- 加权基尼指数 = 0 → 说明该特征划分后数据最"纯"
步骤:计算每组的基尼指数
编辑
5.2 连续值处理(以密度为例)
假设密度数据:0.245, 0.243, 0.360, 0.310, 0.287, 0.403
步骤:
- 排序:0.243, 0.245, 0.287, 0.310, 0.360, 0.403
- 计算相邻中间点:
-
- (0.243+0.245)/2=0.244
- (0.245+0.287)/2=0.266
- ...
- 计算每个分割点的基尼指数:
-
- 以0.310为分割点:
-
-
- ≤0.310(4样本):2好瓜 → 基尼=1-(2/4)²-(2/4)²=0.5
-
0.310(2样本):0好瓜 → 基尼=0
-
-
- 加权基尼 = (4/6)*0.5 + (2/6)*0 ≈0.333
-
- 选择基尼指数最小的分割点(此处0.310最优)
步骤:计算每组的基尼指数
编辑
步骤:计算加权基尼指数
加权基尼指数的公式为:
编辑
5.3 剪枝示例
预剪枝:
- 在划分"纹理=稍糊"节点时,若验证集准确率不提升则停止生长
后剪枝:
- 先生成完整树:
markdown
纹理=清晰 → 好瓜
纹理=稍糊 → 根蒂=蜷缩 → 好瓜
→ 根蒂=稍蜷 → 坏瓜
- 计算剪枝后损失函数:
- 剪枝前:误差=0.1,复杂度=3
- 剪枝后:误差=0.2,复杂度=1
- 若损失函数 α=0.5,则剪枝后更优
6. 算法对比实验
使用完整西瓜数据集(17条数据)进行对比:
算法 | 划分标准 | 树深度 | 正确率 | 过拟合程度 |
ID3 | 信息增益 | 5 | 88% | 高 |
C4.5 | 增益率 | 4 | 92% | 中 |
CART | 基尼指数 | 3 | 90% | 低 |
现象解释:
- ID3因偏好"编号"等特征导致过拟合
- C4.5通过增益率修正,但树深度仍较大
- CART用二分法简化结构,泛化能力更强
7. 代码实战(伪代码)
ini
# 计算信息熵
def entropy(data):
counts = count_labels(data)
total = len(data)
ent = 0.0
for label in counts:
p = counts[label]/total
ent -= p * log2(p)
return ent
# 计算信息增益
def info_gain(data, feature):
original_ent = entropy(data)
values = unique_values(data, feature)
new_ent = 0.0
for value in values:
subset = split_data(data, feature, value)
weight = len(subset)/len(data)
new_ent += weight * entropy(subset)
return original_ent - new_ent
# 选择最优特征
def choose_best_feature(data):
features = get_features(data)
best_gain = 0
best_feature = None
for feature in features:
gain = info_gain(data, feature)
if gain > best_gain:
best_gain = gain
best_feature = feature
return best_feature
8. 总结
决策树就像一个经验丰富的老师傅,通过一系列"是/否"问题快速做出判断。虽然它不是最强大的算法,但胜在简单直观,是机器学习入门的最佳选择之一。下次买西瓜时,不妨试试用决策树来挑瓜!