boosting

老鱼说AI4 天前
人工智能·深度学习·神经网络·机器学习·语言模型·自然语言处理·boosting
论文精读第七期:告别昂贵的人工标注!Math-Shepherd:如何用“零成本”自动化过程监督,让大模型数学能力暴涨?大模型做数学题总是“一步错,步步错”?大家都知道“过程奖励模型(PRM)”效果好,但动辄几十万条的人工标注数据实在太贵了。 今天这篇博客将带你深度拆解北大与 DeepSeek 联合推出的 Math-Shepherd。它不仅提出了一种无需人类介入、基于蒙特卡洛思想的自动化数据构造方法,更在 GSM8K 和 MATH 榜单上全面碾压了传统方法。这不仅是数学推理的胜利,更是数据工程的一次教科书级示范。无论你是想复现 SOTA 效果,还是想寻找低成本提升模型逻辑能力的方案,这篇文章都不容错过。
啊阿狸不会拉杆5 天前
人工智能·算法·机器学习·计算机视觉·集成学习·boosting
《机器学习》第五章-集成学习(Bagging/Boosting)大家好!今天给大家带来机器学习中非常重要的一个章节 —— 集成学习。集成学习可以说是工业界最常用的机器学习算法之一,像随机森林、GBDT、XGBoost 这些经典模型都属于集成学习的范畴。本文会从基础概念到实战应用,一步步带你吃透集成学习,所有代码都可直接运行,还包含可视化对比图,让你直观理解每个知识点!
Dylan的码园14 天前
人工智能·机器学习·ai作画·数据挖掘·boosting·oneflow
稀疏 MoE 与原生多模态双驱:2025 大模型技术演进全景AI是现在的潮流,我也试着收集了一些资料,分享一下,也是了解了解ai前言的东西~自 ChatGPT 掀起全球 AI 浪潮以来,大模型(Large Models)已成为人工智能领域的核心支柱,其能力边界不断拓展,从自然语言处理到计算机视觉,从单一任务适配到跨场景通用,深刻重塑了技术研发范式与产业应用逻辑。大模型的规模化发展带来了能力的跃升,但也面临着计算成本激增、多模态数据融合不彻底等核心挑战。在此背景下,稀疏 MoE(Mixture of Experts)与原生多模态双驱动技术应运而生,成为突破大模型性能
好奇龙猫18 天前
人工智能·学习·boosting
【人工智能学习-AI-MIT公开课第 17.-学习:boosting 算法】为了应对大学院考试,我们来学习相关人工智能相关知识,并且是基于相关课程。使用课程为MIT的公开课。通过学习,也算是做笔记,让自己更理解些。
补三补四24 天前
算法·集成学习·boosting
XGBoost(eXtreme Gradient Boosting)算法的核心原理与底层实现技术机器学习领域中,集成学习方法因其强大的预测性能和良好的泛化能力而备受关注。其中, 梯度提升树(Gradient Boosting Decision Tree, GBDT) 作为一种基于 Boosting 思想的集成学习算法,通过组合多个弱学习器(通常是 CART 回归树)来构建强大的预测模型。然而,传统 GBDT 在处理大规模数据、高维特征以及复杂非线性关系时存在诸多限制,如训练速度慢、内存占用大、缺乏并行化支持等问题。
智算菩萨1 个月前
机器学习·集成学习·boosting
【Python机器学习】Bagging 与 Boosting:集成学习的两种风格目录1 引言2 基础知识2.1 集成学习的基本原理2.2 Bagging 方法的理论基础2.3 Boosting 方法的理论基础
core5121 个月前
机器学习·adaboost·boosting
Adaboost (Adaptive Boosting):错题本上的逆袭图解说明:机器学习界的一位“励志大师”——Adaboost。它的全称是 Adaptive Boosting(自适应增强)。听起来很技术流,但它的核心思想其实就是我们学生时代最熟悉的战术:“刷错题”。
free-elcmacom1 个月前
python·算法·机器学习·boosting
机器学习进阶<13>基于Boosting集成算法的信用评分卡模型构建与对比分析之前写Boosting理论博客时,我想做一个小项目让读者更加深入理解这些算法,于是我想到了“能不能用这个做金融风控的评分卡?”写这个项目的时候踩了不少“理论对不上实战”的坑,比如样本不平衡时AdaBoost直接失效、GBDT可解释性差被监管质疑。
咨询QQ688238862 个月前
boosting
探索宽电压范围大功率双向全桥LLC调频加移相混合调制(PFM + PSM)宽电压范围大功率双向全桥LLC调频加移相混合调制(PFM+PSM) 1、正向LLC拓扑:输入400V,输出200~800V a.移相的电压范围为输出在200~350V之间 b.调频的电压范围为输出在350~800V之间(谐振腔的参数根据这个范围计算的),计算是按照输入额定电压400和输出额定电压380来计算的电压变比, 故额定工况在400V和380V 2、反向LC拓扑:输入200~800V,输出 可供学习参考。
询问QQ688238862 个月前
boosting
混合模型应用:磁链观测低速下精准无传感器控制技术有效磁链进行无传感器控制,为了改善磁链观测器的低速性能,提高 低速下观测精度,使用电压电流混合模型。 使用电压电流混合模型,其运行原理为:使用电压模型获取定子磁链,经过有效磁链转化后得到转子磁链,通 过反正切计算得到估计角度值。 将电压模型所得的定子磁链以及估计角度值作为电流模型的输 入,先经过 Park 计算得到 dq 轴的磁链,可根据磁链公式计算出 dq 轴的电流,再由 Park 逆变 换获取估计的定子电流 。 定子电流的误差经过 PI 调节后,反馈至电压模型的输入信号 中,实现完整的闭环控制。
sensen_kiss2 个月前
人工智能·机器学习·boosting
INT305 Machine Learning 机器学习 Pt.8 Bagging 和 Boosting我们上一章说到偏差方差分解。 下图用飞镖的比喻来形象地解释了偏差(Bias)和方差(Variance)对模型预测性能的影响。 四个飞镖靶,每个靶上都有不同分布的飞镖点,代表模型在不同情况下的预测结果。 左上角(低偏差,低方差):飞镖点集中在靶心附近,表示模型预测准确且稳定。 右上角(低偏差,高方差):飞镖点分布分散但都靠近靶心,表示模型预测稳定但不够准确。 左下角(高偏差,低方差):飞镖点集中在偏离靶心的位置,表示模型预测不准确但稳定。 右下角(高偏差,高方差):飞镖点分散且偏离靶心,表示模型预测既不准确
美人鱼战士爱学习2 个月前
人工智能·集成学习·boosting
KAG: Boosting LLMs in Professional Domains via Knowledge Augmented Generation学术/应用场景与痛点: 传统的 RAG 技术通过外部知识检索,有效缓解了 LLM 的“幻觉”问题。然而,在需要深度分析和推理的专业领域(如法律、医疗、金融),RAG 暴露了三大核心痛点:
极客数模3 个月前
大数据·python·数学建模·金融·分类·图论·boosting
2025年(第六届)“大湾区杯”粤港澳金融数学建模竞赛准备!严格遵循要求,拿下大奖!各参赛队伍:为了保证2025年(第六届)“大湾区杯”粤港澳金融数学建模竞赛顺利举行,现将竞赛开赛的相关事项通知如下:
lzptouch3 个月前
算法·集成学习·boosting
AdaBoost(Adaptive Boosting)算法AdaBoost(自适应提升)是一种集成学习(Ensemble Learning)算法,属于Boosting家族。其核心思想是:通过迭代训练一系列“弱分类器”(性能略优于随机猜测,如决策树桩),并根据每个弱分类器的表现赋予不同权重,最终将它们加权组合成一个“强分类器”。
小杨互联网4 个月前
机器学习·集成学习·boosting
集成学习全解析:Bagging、Boosting、Stacking原理与实战(2025版)本文详细讲解三种主流集成学习方法的工作原理、适用场景及Python实战,附完整代码示例在机器学习实践中,单个模型往往难以达到最佳性能。集成学习通过组合多个模型,可以有效提升预测准确性和稳定性。本文将深入解析Bagging、Boosting和Stacking三种核心集成方法,并提供实际的Python代码示例。
九章云极AladdinEdu4 个月前
人工智能·随机森林·机器学习·强化学习·集成学习·boosting·ai研究
集成学习智慧:为什么Bagging(随机森林)和Boosting(XGBoost)效果那么好?在机器学习的世界里,有一个令人着迷的现象:通过组合多个相对简单的模型,往往能够获得比单个复杂模型更好的性能。这就是集成学习(Ensemble Learning)的核心思想——“三个臭皮匠,顶个诸葛亮”。
l12345sy5 个月前
机器学习·集成学习·boosting·残差·gbdt算法·负梯度
Day22_【机器学习—集成学习(4)—Boosting—GBDT算法】提升树 (Boosting Decision Tree )每一个弱学习器通过拟合残差来构建强学习器梯度提升树 (Gradient Boosting Decision Tree)
Y|5 个月前
决策树·机器学习·集成学习·推荐算法·boosting
GBDT(Gradient Boosting Decision Tree,梯度提升决策树)总结梳理开始总结一下这部分机器学习的算法模型知识,从GBDT开始。先一句话总结学习完对GBDT的理解:每次训练一棵浅决策树,去拟合当前模型在损失函数上的负梯度(错误信号),用学习率控制每棵树的贡献,通过 M 轮串行迭代,将所有树的预测结果相加,最终得到一个强模型。
AI科技编码5 个月前
adaboost·boosting·bagging·集成算法
当模型学会集思广益:集成学习的核心原理与多样化协作模式解析在机器学习的世界里,集成学习就像是一群 “朋友” 共同出谋划策,通过结合多个模型的智慧来解决复杂问题。这种思路和我们日常生活中遇到难题时,会咨询多位朋友的意见并综合判断的逻辑不谋而合。
悦人楼5 个月前
机器学习·集成学习·boosting
深入探讨集成学习:Bagging与Boosting的核心原理与实践在机器学习领域,集成方法通过组合多个基础模型来提升预测效果,这种方法能有效优化模型的稳定性和准确性。其中,bagging和boosting是两种最主流的策略。今天,我们就来聊聊它们的基本概念、工作原理和实际应用,帮助大家更好地理解和运用这些技术。