8.18 机器学习-决策树(1)

决策树

1. 树模型本质

分类/回归:数据从根节点→叶子节点逐步决策,最终落在叶子节点。

2. 树的组成

根节点:第一个分裂的选择点。

非叶子节点:中间判断条件的过程。

叶子节点:最终决策的结果。

3. 训练 vs 测试

训练阶段:用训练集选择特征、切分节点。

测试阶段:按已建好的树路径直接进行预测。

4. 特征选择标准

熵:衡量数据不确定性(熵越低→数据不确定性越小)。

信息增益:特征分裂后熵的不确定减少的程度(增益越大→特征越优)。

5. 构造实例(以"14天打球"为例)

步骤:

  1. 计算原始熵(9打球/5不打球 → 熵=0.940)。

  2. 计算各特征(如Outlook)的条件熵和信息增益。

  3. 选增益最大的特征作为根节点,递归生成子树。

课堂练习:通过数据集构造决策树

1、总熵

E(D)=−k∑​plog2​(p​)

(属于鱼类=是):2个(1、2)

(属于鱼类=否):3个(3、4、5)

熵≈0.971

2、信息增益

:3(1、2、3)

熵:−(32​log2​32​+31​log2​31​)≈0.918

:2(4、5)

熵:0

信息增益=0.420

相关推荐
羊羊小栈几秒前
基于「YOLO目标检测 + 多模态AI分析」的铁路轨道缺陷检测安全系统(vue+flask+数据集+模型训练)
人工智能·yolo·目标检测·语言模型·毕业设计·创业创新·大作业
钝挫力PROGRAMER1 分钟前
GPT与BERT BGE
人工智能·gpt·bert
Baihai IDP2 分钟前
2025 年大语言模型架构演进:DeepSeek V3、OLMo 2、Gemma 3 与 Mistral 3.1 核心技术剖析
人工智能·ai·语言模型·llm·transformer
☼←安于亥时→❦6 分钟前
PyTorch之张量创建与运算
人工智能·算法·机器学习
nuczzz7 分钟前
pytorch非线性回归
人工智能·pytorch·机器学习·ai
~-~%%10 分钟前
Moe机制与pytorch实现
人工智能·pytorch·python
深耕AI13 分钟前
【PyTorch训练】为什么要有 loss.backward() 和 optimizer.step()?
人工智能·pytorch·python
Leinwin18 分钟前
OpenAI已正式开放ChatGPT Projects
大数据·人工智能·microsoft·copilot·azure
普蓝机器人37 分钟前
AutoTrack-IR-DR200仿真导航实验详解:为高校打造的机器人学习实践平台
人工智能·学习·机器人·移动机器人·三维仿真导航
百思可瑞教育1 小时前
使用UniApp实现一个AI对话页面
javascript·vue.js·人工智能·uni-app·xcode·北京百思可瑞教育·百思可瑞教育