机器学习-有监督算法-决策树和支持向量机

目录

决策树

  1. 训练:构造树,测试:从模型从上往下走一遍。
  2. 建树方法:ID3,C4.5,CART

ID3

  • 以信息论为基础,以信息增益为衡量标准
  • 熵越小,混乱程度越小,不确定性越小
  • 信息熵:
    H ( D ) = − ∑ i = 1 n P ( D i ) log ⁡ 2 P ( D i ) H(D) = -\sum_{i=1}^{n} P(D_i) \log_{2} P(D_i) H(D)=−i=1∑nP(Di)log2P(Di)
  • 条件熵:
    H ( D ∣ A ) = − ∑ i = 1 n ∣ D i ∣ ∣ D ∣ log ⁡ 2 ( ∣ D i ∣ ∣ D ∣ ) H(D|A) = -\sum_{i=1}^{n} \frac{|D_i|}{|D|} \log_{2} \left(\frac{|D_i|}{|D|}\right) H(D∣A)=−i=1∑n∣D∣∣Di∣log2(∣D∣∣Di∣)
  • 信息增益:
    G ( D , A ) = H ( D ) − H ( D ∣ A ) G(D,A) = H(D) - H(D|A) G(D,A)=H(D)−H(D∣A)
  • 步骤
    • 求特征对最后结果的信息熵,条件熵,和最后的信息增益
    • 选择信息增益最大的作为当前决策节点
    • 删除上一步使用的特征,用特征值划分不同的数据集合
    • 重复2,3步

C4.5

  • ID3算法的改进
  • 利用信息增益率:
    G R ( D , A ) = G ( D , A ) H ( D ) G_R(D,A) = \frac{G(D,A)}{H(D)} GR(D,A)=H(D)G(D,A)
  • 预剪枝:边建树边剪枝,限制深度、叶子节点个数、叶子结点样本数、信息增益率
  • 后剪枝:建完树剪枝。用叶子节点替换非叶子节点,然后判断错误率是保持还是下降

CART

  • 分类树利用基尼指数来进行分类,分类树最后叶子节点众数作为结果。
  • 回归树利用方差来进行分类,利用特征划分成子集后,各自自己方差要最小,总体方差和也要最小。回归树用最后的均值或中位数作为结果。

支持向量积

  • 解决问题:什么样的分类结果最好
  • 监督学习、分类算法
  • 距离定义,决策面,优化目标
  • 拉格朗日乘子法
  • 软间隔
  • 核变换
相关推荐
小鸡吃米…3 小时前
机器学习中的分类算法
人工智能·机器学习·分类
程序猿炎义3 小时前
【Easy-VectorDB】Faiss数据结构与索引类型
数据结构·算法·faiss
天赐学c语言4 小时前
1.20 - x的平方根 && vector的扩容机制以及删除元素是否会释放内存
c++·算法·leecode
Coding茶水间4 小时前
基于深度学习的交通标志检测系统演示与介绍(YOLOv12/v11/v8/v5模型+Pyqt5界面+训练代码+数据集)
开发语言·人工智能·深度学习·yolo·目标检测·机器学习
52Hz1185 小时前
力扣24.两两交换链表中的节点、25.K个一组反转链表
算法·leetcode·链表
老鼠只爱大米5 小时前
LeetCode经典算法面试题 #160:相交链表(双指针法、长度差法等多种方法详细解析)
算法·leetcode·链表·双指针·相交链表·长度差法
旷野说5 小时前
打造 36Gbps 超高速本地机器学习开发环境
人工智能·机器学习
ValhallaCoder5 小时前
Day53-图论
数据结构·python·算法·图论
老鼠只爱大米5 小时前
LeetCode经典算法面试题 #84:柱状图中最大的矩形(单调栈、分治法等四种方法详细解析)
算法·leetcode·动态规划·单调栈·分治法·柱状图最大矩形
C雨后彩虹5 小时前
羊、狼、农夫过河
java·数据结构·算法·华为·面试