机器学习Day9:集成学习

概念

集成学习通过构建并结合多个学习器来完成学习任务

模型

集成学习的结果通过投票法(少数服从多数)产生,所以学习器要有多样性,精度高不一定是好事

1.Bagging模型并行 训练多个学习器

典型代表:随机森林

随机:数据采样随机,特征选择随机

森林:多个决策树并行放在一起

优点:能够学习高维数据,不用做特征选择;可以进行可视化 展示,便于分析;训练完成后,能给出哪些特征 更重要

理论上,树的数量越多训练效果越好,但当树的数量达到一个值时,增加树的数量作用不大

2.Boosting模型 :先训练出一个基学习器,在此基础上进行调整提升训练效果,以此类推,直至学习器的数量达到预设的值,最终将这些学习器进行加权结合

典型代表:AdaBoost 、xgBoost

AdaBoost会根据前一次的分类效果调整数据权重

3.Stacking堆叠模型 :第一阶段得出各自结果,第二阶段再用前一阶段的结果训练

适合竞赛使用

相关推荐
Codebee12 分钟前
SkillFlow:回归本质的AI能力流程管控
人工智能
巫山老妖29 分钟前
2026 年 AI 趋势深度研究报告
人工智能
CodeLove·逻辑情感实验室40 分钟前
深度解析:当 NLP 试图解构爱情——情感计算(Affective Computing)的伦理边界与技术瓶颈
人工智能·深度学习·自然语言处理·赛朋克
少林码僧1 小时前
2.9 字段分箱技术详解:连续变量离散化,提升模型效果的关键步骤
人工智能·ai·数据分析·大模型
互联网工匠1 小时前
从冯·诺依曼架构看CPU和GPU计算的区别
人工智能·gpu算力
爱笑的眼睛111 小时前
超越可视化:降维算法组件的深度解析与工程实践
java·人工智能·python·ai
GISer_Jing1 小时前
AI Agent 目标设定与异常处理
人工智能·设计模式·aigc
Fnetlink11 小时前
AI+零信任:关键基础设施安全防护新范式
人工智能·安全
njsgcs2 小时前
SIMA2 论文阅读 Google 任务设定器、智能体、奖励模型
人工智能·笔记
机器之心2 小时前
2026年,大模型训练的下半场属于「强化学习云」
人工智能·openai