机器学习(决策树)

基础概念​

定义​

树形结构模型:从​​根节点​ ​开始,通过特征选择分支路径,最终到达​​叶子节点​​(决策结果)。

功能​​:适用于分类与回归任务。

​组成结构​

组件 作用 示例
根节点 首个特征选择点 数据集的初始划分特征
非叶子节点/分支 中间决策过程 根据特征值继续分支
叶子节点 最终决策结果 分类标签/回归值

​训练与测试流程​

训练阶段​ ​:从训练集构造树结构(核心:​​特征选择与切分​​)。

测试阶段​​:新样本从根节点遍历至叶子节点,直接输出结果。

核心问题​

关键难点​ ​:如何选择每个节点的特征及切分方式?

​解决思路​ ​:通过​​量化指标​​衡量特征对分类结果的贡献,选择最优特征(如根节点选分类能力最强的特征)。

熵与信息增益​

熵(Entropy)

定义​​:衡量随机变量的不确定性(数据混乱程度)。

公式​​:H(X)=−i=1∑n​pi​log2​pi​

pi​:第 i类样本在数据集中的占比。

​熵的特性​​:

熵值越大 → 数据越混乱(不确定性高)。

熵值越小 → 数据越纯净(确定性高)。

​示例​​:

集合 A [1,1,1,1,1,1,1,1,2,2]:熵值低(主要类别为1)。确定性高

集合 B [1,2,3,4,5,6,7,8,9,1]:熵值高(类别分散)。

当p=0或p=1时,H(p)=0,随机变量完全没有不确定性

当p=0.5时,H(p)=1,此时随机变量的不确定性最大

​信息增益

定义​​:特征 X使得类别 Y的不确定性减少的程度(提升分类"专一性")。

​公式​​:Gain(D,A)=H(D)−H(D∣A)

H(D):划分前数据集的熵。

H(D∣A):按特征 A划分后的​​条件熵​​(加权平均子集熵)。

计算

特征:4种环境变化

计算​ 信息增益最大的**假设为大当家(**与标签相关性最大的数据)其次为二当家,以此类推。

play混杂程度是最大的因此我们需要先计算play的熵值

第一步:假设outlook为大当家,面有三种情况,为sunny,overcast,rainy

sunny:有5天其中两天是yes,3天是no(yes与no是看play中的之后的情况相同)

overcast:4天yes

rainy:3天yes2天no

5/14是指sunny总天气在play中占的比例

其中H(sunny)算出来就是0.971

以此类推算其它三个值用H(D)-H(其它三个算出的熵值),这就计算出来了它们各自的​信息增益。

比较大小最大的为大当家。

第二步:算二当家的,是在算大当家的分类基础上在分类,比如outlook是大当家,我们计算temperature

这是我们的H(D)就为H(outlook)

我们在已经分好的这个类中继续划分天气为sunny时temperature有三种情况hot、cool、mild

hot在有2no ; mild有1no、1yes ; cool有1yes

相关推荐
小鸡吃米…9 小时前
机器学习 - K - 中心聚类
人工智能·机器学习·聚类
好奇龙猫9 小时前
【AI学习-comfyUI学习-第三十节-第三十一节-FLUX-SD放大工作流+FLUX图生图工作流-各个部分学习】
人工智能·学习
沈浩(种子思维作者)9 小时前
真的能精准医疗吗?癌症能提前发现吗?
人工智能·python·网络安全·健康医疗·量子计算
minhuan9 小时前
大模型应用:大模型越大越好?模型参数量与效果的边际效益分析.51
人工智能·大模型参数评估·边际效益分析·大模型参数选择
Cherry的跨界思维9 小时前
28、AI测试环境搭建与全栈工具实战:从本地到云平台的完整指南
java·人工智能·vue3·ai测试·ai全栈·测试全栈·ai测试全栈
MM_MS9 小时前
Halcon变量控制类型、数据类型转换、字符串格式化、元组操作
开发语言·人工智能·深度学习·算法·目标检测·计算机视觉·视觉检测
ASF1231415sd10 小时前
【基于YOLOv10n-CSP-PTB的大豆花朵检测与识别系统详解】
人工智能·yolo·目标跟踪
水如烟10 小时前
孤能子视角:“意识“的阶段性回顾,“感质“假说
人工智能
Carl_奕然10 小时前
【数据挖掘】数据挖掘必会技能之:A/B测试
人工智能·python·数据挖掘·数据分析
旅途中的宽~11 小时前
《European Radiology》:2024血管瘤分割—基于MRI T1序列的分割算法
人工智能·计算机视觉·mri·sci一区top·血管瘤·t1