技术栈
boosting
旧时光巷
11 天前
python
·
随机森林
·
机器学习
·
集成学习
·
sklearn
·
boosting
·
bagging
【机器学习-4】 | 集成学习 / 随机森林篇
本文将系统介绍Bagging、Boosting两种集成学习方法及随机森林算法,涵盖其原理、过程、参数等内容。通过学习,你能理解两种方法的区别,掌握随机森林的随机含义、算法步骤、优点及关键参数使用,明确各知识点的逻辑关联,本篇将主要围绕原理方面展开,下篇文章再具体用一个项目来加深巩固本文提到的随机森林算法。
nju_spy
21 天前
人工智能
·
随机森林
·
机器学习
·
集成学习
·
boosting
·
bagging
·
南京大学
周志华《机器学习导论》第8章 集成学习 Ensemble Learning
目录8.1 个体与集成8.2 BoostingAda(Adaptive)Boost8.3 Bagging
武子康
2 个月前
大数据
·
人工智能
·
算法
·
机器学习
·
语言模型
·
spark-ml
·
boosting
大数据-276 Spark MLib - 基础介绍 机器学习算法 Bagging和Boosting区别 GBDT梯度提升树
● Bagging:对数据进行采样训练 ● Boosting:根据前一轮学习结果调整数据的重要性● Bagging:所有学习器平权投票 ● Boosting:对学习器进行加权投票
武子康
2 个月前
大数据
·
人工智能
·
算法
·
机器学习
·
ai
·
spark-ml
·
boosting
大数据-277 Spark MLib - 基础介绍 机器学习算法 Gradient Boosting GBDT算法原理 高效实现
梯度提升树(Gradient Boosting)是提升树(Boosting Tree)的一种改进算法,所以在讲梯度提升树之前先来说一下提升树。 先来例子理解:假如有个人30岁,我们首先用20岁去拟合,发现损失有10岁,这时我们用6岁去拟合剩下的损失,发现差距还有4岁,第三轮我们用3岁拟合剩下的差距,差距就只有一岁了。 如果我们迭代轮数还没有完,可以继续迭代下面,每一轮迭代,拟合的岁数误差都会减小,最后将每次拟合的岁数加起来便是模型输出的结果
Easy数模
2 个月前
机器学习
·
集成学习
·
boosting
数量优势:使用Bagging和Boosting的集成模型
装袋法(Bagging)和提升法(Boosting)是机器学习中两种强大的集成技术——它们是数据科学家必须掌握的知识!读完本文后,你将深入理解装袋法和提升法的工作原理以及何时使用它们。我们将涵盖以下主题,并大量使用示例来直观展示关键概念:
江安的猪猪
3 个月前
笔记
·
机器学习
·
boosting
大连理工大学选修课——机器学习笔记(8):Boosting及提升树
不同的数据集彼此独立,可并行操作数据集之间存在强依赖关系,只能串行实现处理的结果都是带来了训练集改变,从而得到不同的学习模型
禺垣
3 个月前
人工智能
·
机器学习
·
数据分析
·
集成学习
·
boosting
·
bagging
·
stacking
Bagging、Boosting、Stacking的原理
Bagging、Boosting、Stacking是常见集成学习的形式,它们都是通过对多个学习器进行有机组合,达到比单个学习器性能更好的目标。
qq742234984
5 个月前
回归
·
kotlin
·
boosting
概率预测之NGBoost(Natural Gradient Boosting)回归和分位数(Quantile Regression)回归
概率预测是一种预测方法,它不仅提供一个具体的预测值(如点预测),还提供预测值的概率分布或置信区间。这种方法能够更好地捕捉预测的不确定性,适用于需要了解预测结果可靠性的场景。
lihuhelihu
5 个月前
人工智能
·
python
·
机器学习
·
scikit-learn
·
集成学习
·
sklearn
·
boosting
精神分裂症患者GAF评分的可视化分析|使用集成学习模型 LightGBM
集成学习是机器学习中通过组合多个模型(称为基学习器)的预测结果来提升整体性能的方法。其主要思想是 “集体智慧”,多个简单模型的组合通常比单个模型更强大、更稳健。
亲持红叶
6 个月前
人工智能
·
python
·
机器学习
·
集成学习
·
boosting
Boosting 框架
Boosting是利用n个弱学习器串行生成并融合从而减少整体偏差的集成学习框架Boosting算法的三个要素
pzx_001
7 个月前
人工智能
·
python
·
深度学习
·
算法
·
机器学习
·
集成学习
·
boosting
【集成学习】Boosting算法详解
集成学习(Ensemble Learning)是一种通过结合多个模型的预测结果来提高整体预测性能的技术。相比于单个模型,集成学习通过多个基学习器的“集体智慧”来增强模型的泛化能力,通常能够提高模型的稳定性和准确性。
C7211BA
8 个月前
算法
·
决策树
·
boosting
梯度提升决策树(GBDT,Gradient Boosting Decision Tree)
梯度提升决策树(GBDT,Gradient Boosting Decision Tree) 是一种集成学习方法,它通过将多个弱学习器(通常是决策树)组合成一个强学习器来进行预测。GBDT 是梯度提升(Gradient Boosting)算法的一种实现,在许多机器学习任务中表现出色,尤其是在结构化数据(如表格数据)上的分类和回归任务中。
GZ_TOGOGO
8 个月前
算法
·
机器学习
·
boosting
【干货分享】Boosting算法简单案例
Boosting算法是一种集成学习方法,通过逐步迭代训练弱分类器,并通过加权组合它们的预测结果来构建一个强分类器。
Java Fans
9 个月前
机器学习
·
集成学习
·
boosting
梯度提升树(Gradient Boosting Trees)详解
✅作者简介:2022年博客新星 第八。热爱国学的Java后端开发者,修心和技术同步精进。 🍎个人主页:Java Fans的博客 🍊个人信条:不迁怒,不贰过。小知识,大智慧。 💞当前专栏:机器学习分享专栏 ✨特色专栏:国学周更-心性养成之路 🥭本文内容:梯度提升树(Gradient Boosting Trees)详解
正义的彬彬侠
9 个月前
人工智能
·
机器学习
·
集成学习
·
boosting
·
catboost
CatBoost 中对分类特征进行目标变量统计编码 公式解析
公式 14-2 是 CatBoost 中对分类特征进行目标变量统计编码的一种改进版本,加入了平滑项,用于处理稀疏数据和类别样本不足的情况。下面是对公式的详细解释:
_清豆°
9 个月前
人工智能
·
随机森林
·
机器学习
·
adaboost
·
集成学习
·
boosting
·
bagging
机器学习(七)——集成学习(个体与集成、Boosting、Bagging、随机森林RF、结合策略、多样性增强、多样性度量、Python源码)
Bagging和随机森林是并行式集成学习方法,通过从原始训练集中采样产生不同的子集来训练基学习器。为了使基学习器具有明显差异,一种可能的做法是对训练样本进行采样,产生出若干个不同的子集,再从每个数据子集中训练出一个基学习器。但是为了保证基学习器效果不是太差,可以使用相互有交叠的子集。
正义的彬彬侠
9 个月前
python
·
决策树
·
机器学习
·
numpy
·
集成学习
·
boosting
·
xgboost
XGBoost算法Python代码实现
这段代码定义了一个名为 XGBoost 的类,旨在实现 XGBoost 的基础功能,包括梯度提升树的训练和预测。以下是对代码的详细解读:
正义的彬彬侠
9 个月前
人工智能
·
决策树
·
机器学习
·
集成学习
·
boosting
·
xgboost
《XGBoost算法的原理推导》12-14决策树复杂度的正则化项 公式解析
本文是将文章《XGBoost算法的原理推导》中的公式单独拿出来做一个详细的解析,便于初学者更好的理解。
正义的彬彬侠
9 个月前
人工智能
·
机器学习
·
adaboost
·
集成学习
·
boosting
·
自适应提升算法
在AdaBoost中,分类错误的样本的权重会增大
在AdaBoost中,分类错误的样本的权重会增大,这是AdaBoost的核心机制之一。在每一轮迭代中,AdaBoost会根据当前弱分类器的表现,调整每个样本的权重:
正义的彬彬侠
9 个月前
人工智能
·
机器学习
·
adaboost
·
集成学习
·
boosting
·
自适应提升算法
在AdaBoost中每轮训练后,为什么错误分类的样本权重会增大e^2αt倍
在 AdaBoost 的每一轮迭代中,样本 i i i 的权重更新公式为: w t + 1 , i = w t , i ⋅ exp ( − α t y i G t ( x i ) ) Z t w_{t+1,i} = \frac{w_{t,i} \cdot \exp(-\alpha_t y_i G_t(x_i))}{Z_t} wt+1,i=Ztwt,i⋅exp(−αtyiGt(xi))