adaboost提升方法

集成学习:串联(提升方法),并联(随机森林)

Adaboost:分类加法模型(更新样本权值,投票权值-由权值误差率决定)

提升树:回归加法模型 (更新标签:为上次模型的残差,由平方误差最小原则学得弱分类器)

AdaBoost(Adaptive Boosting)是一种流行的提升方法,它通过迭代地组合多个弱分类器来构建一个强分类器。AdaBoost的核心思想是:

  1. 弱学习器的转换:即使弱学习器的性能只比随机猜测略好,AdaBoost也能够通过适当的组合提升其性能。
  2. 样本权重的调整:在每一轮迭代中,AdaBoost增加被前一轮弱分类器错误分类样本的权重,减少正确分类样本的权重,从而使得后续的弱学习器更加关注难以分类的样本。

AdaBoost算法流程

  1. 初始化:为训练数据集的每个样本分配相同的权重。
  2. 迭代训练:在每一轮中,根据当前权重分布训练一个弱分类器,并计算其在加权训练集上的表现。
  3. 权重更新:根据弱分类器的错误率调整样本权重,为下一轮迭代做准备。
  4. 组合弱分类器:通过加权多数表决的方式组合所有弱分类器,形成最终的强分类器。

提升树:决策树的强强联合

提升树是一种以决策树作为基本分类器的提升方法,它在分类和回归问题上都表现出色。提升树的关键特点包括:

  1. 决策树的简洁性:提升树中的决策树通常具有较浅的深度,如决策树桩,这使得它们易于理解和实现。
  2. 逐步优化:通过逐步添加决策树并优化损失函数,提升树能够逐渐逼近复杂的数据结构。

提升树算法流程

  1. 初始化模型:通常以一个常数值或基于训练数据的简单模型开始。
  2. 负梯度计算:在每一步中,计算当前模型输出与真实值之间的残差,即损失函数的负梯度。
  3. 弱学习器训练:训练一个新的决策树,使其拟合这些残差。
  4. 模型更新:将新训练的决策树以一定的学习率加入到现有模型中,更新整体模型。

梯度提升:损失函数的梯度下降

梯度提升算法是提升方法的另一种形式,它通过利用损失函数的负梯度作为残差的近似值来训练弱学习器。梯度提升的关键步骤包括:

  1. 初始化:设置一个初始模型,通常是一个常量或简单的预测。
  2. 迭代优化:在每一轮迭代中,计算当前模型的负梯度,并用它来指导新弱学习器的训练。
  3. 模型更新:将新训练的弱学习器加入到现有模型中,逐步优化整体模型。
相关推荐
放下华子我只抽RuiKe523 分钟前
NLP自然语言处理硬核实战笔记
前端·人工智能·机器学习·自然语言处理·开源·集成学习·easyui
Zero32 分钟前
机器学习概率论与统计学--(3)概率论:随机变量
机器学习·概率论·随机变量·统计学
Zero1 小时前
机器学习概率论与统计学--(4)概率论:概率质量函数与概率密度函数
机器学习·概率论·概率密度函数·概率质量函数
QQsuccess1 小时前
人工智能(AI)全体系学习——系列二
人工智能·学习·机器学习
落羽的落羽2 小时前
【Linux系统】中断机制、用户态与内核态、虚拟地址与页表的本质
java·linux·服务器·c++·人工智能·算法·机器学习
乐分启航13 小时前
SliMamba:十余K参数量刷新SOTA!高光谱分类的“降维打击“来了
java·人工智能·深度学习·算法·机器学习·分类·数据挖掘
Theodore_102215 小时前
深度学习(11):偏差与方差诊断、学习曲线
人工智能·笔记·深度学习·神经网络·机器学习·计算机视觉
Theodore_102217 小时前
深度学习(12)正则化线性回归中的偏差与方差调试
人工智能·深度学习·算法·机器学习·线性回归
链巨人17 小时前
理解L-平滑 (L-smoothness)和\mu-强凸 (\mu-strong convexity)并以此假设来证明梯度下降方法的收敛性
人工智能·机器学习
Zero20 小时前
机器学习概率论与统计学--(2)统计学基础
机器学习·概率论·统计学