技术栈
boosting
Java Fans
4 小时前
机器学习
·
集成学习
·
boosting
梯度提升树(Gradient Boosting Trees)详解
✅作者简介:2022年博客新星 第八。热爱国学的Java后端开发者,修心和技术同步精进。 🍎个人主页:Java Fans的博客 🍊个人信条:不迁怒,不贰过。小知识,大智慧。 💞当前专栏:机器学习分享专栏 ✨特色专栏:国学周更-心性养成之路 🥭本文内容:梯度提升树(Gradient Boosting Trees)详解
正义的彬彬侠
7 天前
人工智能
·
机器学习
·
集成学习
·
boosting
·
catboost
CatBoost 中对分类特征进行目标变量统计编码 公式解析
公式 14-2 是 CatBoost 中对分类特征进行目标变量统计编码的一种改进版本,加入了平滑项,用于处理稀疏数据和类别样本不足的情况。下面是对公式的详细解释:
_清豆°
11 天前
人工智能
·
随机森林
·
机器学习
·
adaboost
·
集成学习
·
boosting
·
bagging
机器学习(七)——集成学习(个体与集成、Boosting、Bagging、随机森林RF、结合策略、多样性增强、多样性度量、Python源码)
Bagging和随机森林是并行式集成学习方法,通过从原始训练集中采样产生不同的子集来训练基学习器。为了使基学习器具有明显差异,一种可能的做法是对训练样本进行采样,产生出若干个不同的子集,再从每个数据子集中训练出一个基学习器。但是为了保证基学习器效果不是太差,可以使用相互有交叠的子集。
正义的彬彬侠
12 天前
python
·
决策树
·
机器学习
·
numpy
·
集成学习
·
boosting
·
xgboost
XGBoost算法Python代码实现
这段代码定义了一个名为 XGBoost 的类,旨在实现 XGBoost 的基础功能,包括梯度提升树的训练和预测。以下是对代码的详细解读:
正义的彬彬侠
14 天前
人工智能
·
决策树
·
机器学习
·
集成学习
·
boosting
·
xgboost
《XGBoost算法的原理推导》12-14决策树复杂度的正则化项 公式解析
本文是将文章《XGBoost算法的原理推导》中的公式单独拿出来做一个详细的解析,便于初学者更好的理解。
正义的彬彬侠
19 天前
人工智能
·
机器学习
·
adaboost
·
集成学习
·
boosting
·
自适应提升算法
在AdaBoost中,分类错误的样本的权重会增大
在AdaBoost中,分类错误的样本的权重会增大,这是AdaBoost的核心机制之一。在每一轮迭代中,AdaBoost会根据当前弱分类器的表现,调整每个样本的权重:
正义的彬彬侠
19 天前
人工智能
·
机器学习
·
adaboost
·
集成学习
·
boosting
·
自适应提升算法
在AdaBoost中每轮训练后,为什么错误分类的样本权重会增大e^2αt倍
在 AdaBoost 的每一轮迭代中,样本 i i i 的权重更新公式为: w t + 1 , i = w t , i ⋅ exp ( − α t y i G t ( x i ) ) Z t w_{t+1,i} = \frac{w_{t,i} \cdot \exp(-\alpha_t y_i G_t(x_i))}{Z_t} wt+1,i=Ztwt,i⋅exp(−αtyiGt(xi))
you_are_my_sunshine*
2 个月前
决策树
·
集成学习
·
boosting
解决方案:梯度提升树(Gradient Boosting Trees)跟GBDT(Gradient Boosting Decision Trees)有什么区别
在工作中,在机器学习中,时而会听到梯度提升树(Gradient Boosting Trees)跟GBDT(Gradient Boosting Decision Trees,GBDT),会容易混淆,所以整理一下
luthane
2 个月前
python
·
算法
·
boosting
python 实现gradient boosting regressor梯度增强回归器算法
梯度增强回归器(Gradient Boosting Regressor,简称GBR)是一种集成学习算法,专门用于解决回归问题。它通过组合多个弱学习器(通常是决策树)来构建一个强大的预测模型。以下是关于梯度增强回归器算法的详细解释:
三月七(爱看动漫的程序员)
2 个月前
人工智能
·
gpt
·
语言模型
·
chatgpt
·
prompt
·
知识图谱
·
boosting
Enhancing Trust in LLMs: Algorithms for Comparing and Interpreting LLMs
增强LLM中的信任:比较和解释LLM的算法论文地址:hhttps://arxiv.org/pdf/2406.01943
AI in Bio
2 个月前
人工智能
·
算法
·
集成学习
·
boosting
集成学习详细介绍
以下内容整理于:集成学习(ensemble):选择一个由一系列假设h1, h2, …, hn构成的集合,通过投票、平均或其他形式的机器学习方法将他们的预测进行组合。我们称单独的假设为基模型(base model),其组合后的模型称为集成模型(ensemble model)。
听忆.
2 个月前
算法
·
机器学习
·
boosting
【机器学习】Boosting与Bagging算法
Boosting与Bagging算法1. Bagging(Bootstrap Aggregating)
Humbunklung
3 个月前
python
·
机器学习
·
scikit-learn
·
boosting
记一次使用catboost训练不平衡数据
CatBoost 是一种基于梯度提升决策树的机器学习算法,它在处理类别特征方面有独特的优势,并且通常能够提供比其他梯度提升框架更好的性能。下面是一个我最近使用 SMOTE 和 CatBoost 库进行分类任务的基本示例。
0010000100
3 个月前
机器学习
·
集成学习
·
boosting
Gradient Boosting
Gradient Boosting,即梯度提升算法,是一种集成学习方法,它通过迭代地训练弱学习器(如决策树)来构建一个强学习器,以提高预测性能。这种方法在回归和分类问题中都有广泛的应用,并且因其强大的性能和灵活性而备受关注。以下是对Gradient Boosting算法的详细解析: 一、基本思想 Gradient Boosting算法借鉴了梯度下降法的思想,其基本原理是根据当前模型损失函数的负梯度信息来训练新加入的弱学习器,然后将训练好的弱学习器以累加的形式结合到现有模型中。这一过程可以看作是在函数空间中
夜色呦
4 个月前
python
·
scikit-learn
·
boosting
Scikit-learn中Bagging与Boosting技术的区别与应用
Scikit-learn是一个功能丰富的机器学习库,它提供了多种集成学习技术,包括Bagging和Boosting。这两种技术都是通过组合多个弱学习器来构建一个强学习器,但它们在组合方式和应用场景上存在显著差异。本文将深入探讨Scikit-learn中Bagging和Boosting的区别,并展示如何在实际问题中应用这两种技术。
LuvMyLife
4 个月前
ide
·
visual studio
·
boosting
Visual Studio下安装引入Boost库
在 Win 上通过 Visual Studio 运行 c++ 代码,引入头文件 #include <boost/...>,显式无法打开,需要手动下载boost并进行配置。
coolkidlan
5 个月前
人工智能
·
集成学习
·
boosting
【AI原理解析】—Boosting原理
目录一、核心思想二、工作机制三、代表算法四、总结Boosting是一种集成学习方法,其原理主要通过结合多个弱学习器(弱分类器或弱回归器)来构建一个强学习器。
空白诗
5 个月前
机器学习
·
集成学习
·
boosting
【机器学习】集成学习方法:Bagging与Boosting的应用与优势
机器学习作为人工智能的一个重要分支,旨在通过数据驱动的方式让计算机自动从经验中学习,并进行预测或决策。机器学习技术在诸多领域,如图像识别、自然语言处理、推荐系统和金融预测等,取得了广泛应用和显著成果。然而,尽管机器学习模型在特定任务中表现优异,但单一模型在泛化能力上的局限性也逐渐显现出来。
青春之我_XP
5 个月前
随机森林
·
机器学习
·
数据挖掘
·
adaboost
·
集成学习
·
boosting
·
bagging
【机器学习系列】深入理解集成学习:从Bagging到Boosting
目录一、集成方法的一般思想二、集成方法的基本原理三、构建集成分类器的方法常见的有装袋(Bagging)和提升(Boosting)两种方法
鑫宝Code
6 个月前
决策树
·
机器学习
·
boosting
【机器学习】GBDT (Gradient Boosting Decision Tree) 深入解析
🌈个人主页: 鑫宝Code 🔥热门专栏: 闲话杂谈| 炫酷HTML | JavaScript基础 💫个人格言: "如无必要,勿增实体"