机器学习算法-决策树

今天我们用一个 「相亲决策」 的例子来讲解决策树算法,保证你轻松理解原理和实现!

🌳 决策树是什么?

决策树就像玩 「20个问题」猜谜游戏

  • 你心里想一个东西(比如「苹果」)

  • 朋友通过一系列问题猜(「是水果吗?」→「是红色的吗?」→...)

  • 问的问题越精准,猜得越快!

机器学习中的决策树:通过一系列「如果...那么...」的规则,把数据一步步分类。


💍 例子:用决策树决定是否相亲

假设你是媒婆,手上有历史相亲数据,记录每个人的:

  1. 年龄(青年/中年/老年)

  2. 外貌(帅/普通)

  3. 收入(高/中/低)

  4. 是否成功(是/否)

现在有个新小伙:「青年、外貌帅、收入中」,要不要安排相亲?

📊 历史数据
年龄 外貌 收入 是否成功
青年
青年 普通
中年
老年 普通
... ... ... ...

🌟 决策树原理

1. 关键问题:如何选择「最佳问题」?

决策树的核心:每一步选一个最能区分数据的问题(比如优先问「收入高吗?」比「年龄大吗?」更能区分成功率)。

衡量标准

  • 信息增益:问完这个问题后,数据更「纯净」(比如「收入高」的人群中成功率明显更高)。

  • 基尼系数:类似,值越小说明分类越准。

2. 构建决策树(伪代码)
复制代码
def 构建决策树(数据):
    if 所有数据都属于同一类别:
        return 叶子节点(类别)
    
    选择最佳问题 = 找信息增益最大的特征(如「收入」)
    树 = {最佳问题: {}}
    
    for 该问题的每个选项(如「高/中/低」):
        子数据 = 筛选出符合该选项的数据
        树[最佳问题][选项] = 构建决策树(子数据)
    
    return 树
复制代码
3. 本例可能的决策树
复制代码
1. 收入=高?
   ├─ 是 → 相亲(历史数据中高收入全部成功)
   └─ 否 → 
       2. 外貌=帅?
          ├─ 是 → 相亲(青年+帅+中收入曾成功)
          └─ 否 → 不相亲(老年+普通+中收入失败)

对新数据「青年、帅、中收入」的预测

  • 收入≠高 → 问外貌 → 帅 → 相亲!

🛠️ 代码实现(Python)

scikit-learn 快速实现:

复制代码
from sklearn.tree import DecisionTreeClassifier
import pandas as pd

# 1. 准备数据(这里简化特征为数值)
data = {
    '年龄': ['青年', '青年', '中年', '老年'],  # 实际需要转为数字
    '外貌': ['帅', '普通', '帅', '普通'],
    '收入': ['高', '高', '高', '中'],
    '是否成功': [1, 1, 1, 0]  # 1=是,0=否
}
df = pd.DataFrame(data)

# 2. 特征编码(文本转数字)
from sklearn.preprocessing import LabelEncoder
le = LabelEncoder()
df['年龄'] = le.fit_transform(df['年龄'])
df['外貌'] = le.fit_transform(df['外貌'])
df['收入'] = le.fit_transform(df['收入'])

# 3. 训练决策树
X = df[['年龄', '外貌', '收入']]
y = df['是否成功']
model = DecisionTreeClassifier(criterion='entropy')  # 用信息增益
model.fit(X, y)

# 4. 预测新数据
new_person = pd.DataFrame([['青年', '帅', '中']], columns=['年龄', '外貌', '收入'])
new_person['年龄'] = le.transform(new_person['年龄'])
new_person['外貌'] = le.transform(new_person['外貌'])
new_person['收入'] = le.transform(new_person['收入'])

pred = model.predict(new_person)
print("安排相亲吗?", "是" if pred[0] == 1 else "否")
复制代码

输出

复制代码
安排相亲吗? 是

🌍 决策树的优缺点

优点
  • 像人类思考:规则直观易懂(适合向老板解释!)。

  • 无需特征缩放:对数据范围不敏感。

  • 处理混合类型:数值和类别特征都能用。

缺点
  • 容易过拟合:树太深会死记硬背训练数据(解决方法:剪枝、限制树深度)。

  • 不稳定:数据微小变化可能导致完全不同的树(解决方法:用随机森林)。


🎨 可视化决策树

安装 graphviz 后,可以画出树的结构:

复制代码
from sklearn.tree import export_graphviz
import graphviz

dot_data = export_graphviz(model, out_file=None, 
                          feature_names=['年龄', '外貌', '收入'],  
                          class_names=['否', '是'], filled=True)
graph = graphviz.Source(dot_data)
graph.render("decision_tree")  # 保存为PDF
复制代码

你会看到类似这样的树:

复制代码
收入 <= 1.5?
├─ 是 → 类别: 是
└─ 否 → 外貌 <= 0.5?
   ├─ 是 → 类别: 是
   └─ 否 → 类别: 否

🤖 实际应用场景

  • 医疗诊断:根据症状判断疾病。

  • 金融风控:根据用户信息预测贷款违约。

  • 推荐系统:根据用户行为决定推荐内容。


总结:决策树就是用一系列问题层层拆解数据,简单却强大!试着用它解决你的分类问题吧! 🌟

相关推荐
IT古董30 分钟前
【漫话机器学习系列】275.GrabCut 算法——用于去除图片背景(Grabcut For Removing Image Backgrounds)
人工智能·算法·机器学习
qq_195551692 小时前
代码随想录60期day50
算法·leetcode·职场和发展
归去_来兮3 小时前
循环神经网络(RNN)模型
人工智能·深度学习·机器学习·循环神经网络·序列数据
codists3 小时前
《算法导论(第4版)》阅读笔记:p162-p163
算法
我是李武涯3 小时前
C++ 条件变量虚假唤醒问题的解决
开发语言·c++·算法
iceslime4 小时前
贪心算法求解汽车加油问题
算法·贪心算法·汽车
苏荷水4 小时前
day12 leetcode-hot100-21(矩阵4)
算法·leetcode·矩阵
岁忧4 小时前
(nice!!!)(LeetCode 每日一题) 3372. 连接两棵树后最大目标节点数目 I (贪心+深度优先搜索dfs)
java·c++·算法·leetcode·go·深度优先
liuyang-neu4 小时前
力扣 74.搜索二维矩阵
算法·leetcode·矩阵