数据分析 | Boosting与Bagging的区别

Boosting与Bagging的区别

Bagging思想专注于降低方差,操作起来较为简单,而Boosting思想专注于降低整体偏差来降低泛化误差,在模型效果方面的突出表现制霸整个弱分类器集成的领域。具体区别体现在如下五点:

  • 弱评估器:Bagging相互独立、并行构建;Boosting相互关联,按照顺序依次构建,先建弱分类器的效果影响后续模型的建立

  • 建树前的抽样方式:Bagging和Boosting都是样本有放回抽样和特征无放回抽样;但Boosting先建弱分类器的预测效果可能影响抽样细节

  • 集成的结果:Bagging对回归进行平均,对分类取众数,即少数服从多数;Boosting每个算法都有自己独特的规则,一般表现为某种分数的加权平均和使用输出函数进行分类,如sigmoid和softmax函数

  • 目标:Bagging降低方差来提高模型整体的稳定性来提高泛化能力;Boosting降低偏差提高模型整体的精度来提高泛化能力,众多弱分类器叠加后可以等同于强学习器

  • 单个评估器效力较弱时:Bagging可能失效,需要单个评估器准确率大于50%;Boosting则大概率会提升模型表现

如果说Bagging不同算法之间的核心区别在于靠以不同方式实现随机性,那Bosting的不同算法之间的核心区别就在于上一个弱评估器的评估结果具体如何影响下一个弱评估器的建立过程。

相关推荐
哥布林学者7 小时前
高光谱成像(一)高光谱图像
机器学习·高光谱成像
地平线开发者7 小时前
SparseDrive 模型导出与性能优化实战
算法·自动驾驶
董董灿是个攻城狮7 小时前
大模型连载2:初步认识 tokenizer 的过程
算法
地平线开发者8 小时前
地平线 VP 接口工程实践(一):hbVPRoiResize 接口功能、使用约束与典型问题总结
算法·自动驾驶
罗西的思考8 小时前
AI Agent框架探秘:拆解 OpenHands(10)--- Runtime
人工智能·算法·机器学习
HXhlx11 小时前
CART决策树基本原理
算法·机器学习
Wect12 小时前
LeetCode 210. 课程表 II 题解:Kahn算法+DFS 双解法精讲
前端·算法·typescript
颜酱12 小时前
单调队列:滑动窗口极值问题的最优解(通用模板版)
javascript·后端·算法
Duang19 小时前
从零推导指数估值模型 —— 一个三因子打分系统的设计思路
数据分析·领域驱动设计
Gorway19 小时前
解析残差网络 (ResNet)
算法