【Python机器学习】利用AdaBoost元算法提高分类性能——基于数据集多重抽样的分类器

当做重要决定时,大家可能都会考虑吸取多个专家而不是一个人的意见,这就是元算法背后的思路。元算法是对其他算法进行组合的一种方式。AdaBoost是一种非常流行的元算法。

我们可以将不同的分类器组合起来,这种组合结果被称为集成方法 或者元算法。使用集成方法时会有多种形式:可以使不同算法的集成,也可以是同一算法在不同设置下的集成,还可以是数据集不同部分分类给不同分类器之后的集成。

AdaBoost的优缺点:

优点:泛化错误率低,易编码,可以应用在大部分分类器上,无参数调整

缺点:对离群点敏感

使用数据类型:数值型和标称型数据

bagging:基于数据随机重抽样的分类器构建方法

自举汇聚法,也称为bagging方法,是在从原始数据集选择S次后得到S个新数据集的一种技术。新数据集和原数据集的大小相等。每个数据集都是通过在原始数据集中随机选择一个样本来进行替换而得到的。这里的替换意味着可以多次地选择同一个样本。这一性质就允许新数据集中可以有重复的值,而原始数据集的某些值在新数据集中则不再出现。

在S个数据集建好之后,将某个学习算法分别作用于每个数据集就得到了S个分类器。当我们要对新数据进行分类时,就可以应用这S个分类器。与此同时,选择分类器投票结果中最多的类别作为最后的分类结果。

还有一些更先进的bagging方法,比如随机森林。

boosting

boosting是一种与bagging很类似的技术。不论是在boosting还是bagging当中,所使用的多个分类器的类型都是一致的。但是在前者中,不同的分类器是通过串行训练而获得的,每个新分类器都根据已训练出的分类器的性能来进行训练。boosting是通过集中关注被已有分类器错分的那些数据来获得新的分类器。

由于boosting分类的结果是基于所有分类器的加权求和结果的,因此boosting与bagging不太一样。bagging中的分类器权重是相等的,而boosting中的分类器权重并不相等,每个权重代表的是其对应分类器在上一轮迭代中的成功度。

boosting方法拥有多个版本。

AdaBoost的一般流程:

1、收集数据:可以使用任意方法

2、准备数据:依赖于所使用的弱分类器类型,其中单层决策树可以处理任意数据类型;对于弱分类器,简单分类器的效果更好

3、分析数据:可以使用任意方法

4、训练算法:AdaBoost的大部分时间都用在训练上,分类器将多次在同一数据集上训练弱分类器

5、测试算法:计算分类的错误率

6、使用算法:同SVM一样,AdaBoost预测两个类别中的一个。如果想把它应用在多个类别的场合,就要进行修改。

相关推荐
一人の梅雨1 分钟前
亚马逊SP-API商品详情接口轻量化实战:合规与商业价值提取指南
python
Protein_zmm27 分钟前
【算法基础】二分
算法
Lips61132 分钟前
2026.1.11力扣刷题笔记
笔记·算法·leetcode
charlie1145141911 小时前
从 0 开始的机器学习——NumPy 线性代数部分
开发语言·人工智能·学习·线性代数·算法·机器学习·numpy
咚咚王者1 小时前
人工智能之核心基础 机器学习 第十二章 半监督学习
人工智能·学习·机器学习
catchadmin2 小时前
Laravel12 + Vue3 的免费可商用商业级管理后台 CatchAdmin V5 正式发布
开发语言·php
袁气满满~_~2 小时前
Python数据分析学习
开发语言·笔记·python·学习
deephub2 小时前
构建自己的AI编程助手:基于RAG的上下文感知实现方案
人工智能·机器学习·ai编程·rag·ai编程助手
kebijuelun2 小时前
FlashInfer-Bench:把 AI 生成的 GPU Kernel 放进真实 LLM 系统的“闭环引擎”
人工智能·gpt·深度学习·机器学习·语言模型
执携2 小时前
算法 -- 冒泡排序
数据结构·算法