机器学习笔记

目录

决策树模型

[决策树 Decision Tree](#决策树 Decision Tree)

[随机森林 Random Forest](#随机森林 Random Forest)

[梯度提升决策树 Gradient Boosting Decision Trees](#梯度提升决策树 Gradient Boosting Decision Trees)

线性模型

回归

分类

[Softmax Regression](#Softmax Regression)


决策树模型

决策树 Decision Tree

用于分类和回归,通过一系列判断得到最终的结果。

优点:可解释;既能处理数值也能处理特征分类

缺点:不稳定,噪声的影响大(集成学习可以改进);过拟合;不易并行计算;

随机森林 Random Forest

森林:独立地训练几棵决策树,综合几棵决策树的结果来提高结果的稳定性。

随机:1.训练集使用随机采样的方法,如数据集D={1,2,3},训练集A={1,2,3},B={1,1,3};

2.随机选取部分特征,比如确定一个西瓜好不好吃需要10个特征,我只随机拿5个特征用来训练决策树,从这5个特征中找最优划分特征。

梯度提升决策树 Gradient Boosting Decision Trees

按照顺序来训练多棵决策树;首先训练一棵树,然后用这棵树的结果和实际结果之间的残差来训练下一棵树,相当于一直训练新的树来修正之前的树的结果,最后所有树的结果相加得到最终结果。

线性模型

回归

目标:学习使得均方误差最小。

分类

使用得到一系列类别的置信度,结果取置信度最大的类别。

目标:使均方误差最小。

问题:我们使结果能够足够明显的被识别出来就行了,不必过于关注别的类别,而这个方法让均方误差最小,相当于想训练一个模型使得正确结果的预测结果就是1,错误结果的预测结果就是0,没必要。

Softmax Regression

标签向量,其中表示真实的类别是第i类,否则为0。

设模型的输出是分数,用表示,softmax函数把这些分数转化为概率

目标:最小化是指模型预测出的正确的类别的概率。正确类别的概率越接近一越好。

小批量随机梯度下降

几乎可以求解除决策树之外所有的算法模型。

相关推荐
FishCoderh3 分钟前
被OpenClaw的Session搞晕了?这篇让你彻底搞懂
人工智能
孤烟1 小时前
19 万 + GitHub 星标!OpenClaw 凭什么成为 2026 最火 AI Agent,万字实测告诉你
人工智能
zhl772 小时前
YOLOv5:从0搭建你的第一个目标检测模型
人工智能
TechFind2 小时前
用 OpenClaw 搭建企业微信 AI Agent:从零到自动化客服只需 30 分钟
人工智能·agent
FishCoderh2 小时前
OpenClaw部署后Tools工具权限被禁用?一行配置解决
人工智能
飞哥数智坊3 小时前
openclaw 不是全站第一!但它的爆发,足以引人深思
人工智能
zone77394 小时前
001:LangChain的LCEL语法学习
人工智能·后端·面试
程序员鱼皮5 小时前
微软竟然出了免费的 AI 应用开发课?!我已经学上了
人工智能·程序员·ai编程
DevnullCoffe5 小时前
基于 OpenClaw + Pangolinfo API 的 Amazon 价格监控系统:架构设计与最佳实践
人工智能·架构
Baihai_IDP5 小时前
回头看 RLHF、PPO、DPO、GRPO 与 RLVR 的发展路径
人工智能·llm·强化学习