机器学习Day9:集成学习

概念

集成学习通过构建并结合多个学习器来完成学习任务

模型

集成学习的结果通过投票法(少数服从多数)产生,所以学习器要有多样性,精度高不一定是好事

1.Bagging模型并行 训练多个学习器

典型代表:随机森林

随机:数据采样随机,特征选择随机

森林:多个决策树并行放在一起

优点:能够学习高维数据,不用做特征选择;可以进行可视化 展示,便于分析;训练完成后,能给出哪些特征 更重要

理论上,树的数量越多训练效果越好,但当树的数量达到一个值时,增加树的数量作用不大

2.Boosting模型 :先训练出一个基学习器,在此基础上进行调整提升训练效果,以此类推,直至学习器的数量达到预设的值,最终将这些学习器进行加权结合

典型代表:AdaBoost 、xgBoost

AdaBoost会根据前一次的分类效果调整数据权重

3.Stacking堆叠模型 :第一阶段得出各自结果,第二阶段再用前一阶段的结果训练

适合竞赛使用

相关推荐
TF男孩3 小时前
重新认识Markdown:它不仅是排版工具,更是写Prompt的最佳结构
人工智能
想打游戏的程序猿4 小时前
AI时代的内容输出
人工智能
小兵张健4 小时前
Playwright MCP 截图标注方案调研:推荐方案 1
人工智能
凌杰6 小时前
AI 学习笔记:Agent 的能力体系
人工智能
IT_陈寒7 小时前
React状态管理终极对决:Redux vs Context API谁更胜一筹?
前端·人工智能·后端
舒一笑9 小时前
如何获取最新的技术趋势和热门技术
人工智能·程序员
聚客AI9 小时前
🎉OpenClaw深度解析:多智能体协同的三种模式、四大必装技能与自动化运维秘籍
人工智能·开源·agent
黄粱梦醒9 小时前
大模型企业级部署方案-vllm
人工智能·llm
IT_陈寒9 小时前
JavaScript代码效率提升50%?这5个优化技巧你必须知道!
前端·人工智能·后端
IT_陈寒9 小时前
Java开发必知的5个性能优化黑科技,提升50%效率不是梦!
前端·人工智能·后端