机器学习期末速成

文章参考自B站机器学习期末速成课

本文仅作者个人复习使用

一、机器学习分类

聚类和分类的区别:

分类:一开始就知道有哪些类别

聚类:一开始不知道有哪些类别

损失函数:简单来说就是你预测出来的结果和真实值的差距。

0-1损失函数:一般做二分类问题

数据特征工程,相当于对原始数据进行一定的清理和提纯。

二、逻辑回归







sigmoid函数会让输出值在0-1之间


求参数,比如w和b,一般用梯度下降算法。

三、决策树










信息熵和信息增益描述数据的混乱程度

Gini系数则是描述数据的纯度

两者都是越小越好

四、集成学习算法

















五、支持向量机

两个类别边缘上的点叫支持向量

硬间隔:完全分类准确

软间隔:存在分类错误的情况






六、聚类









七、特征工程和指标












相关推荐
2202_756749694 分钟前
06 基于sklearn的机械学习-欠拟合、过拟合、正则化、逻辑回归
人工智能·python·深度学习·机器学习·计算机视觉·逻辑回归·sklearn
星期天要睡觉8 分钟前
机器学习——逻辑回归(LogisticRegression)实战案例:信用卡欺诈检测数据集
人工智能·机器学习·逻辑回归
WeiJingYu.1 小时前
逻辑回归的应用
算法·机器学习·逻辑回归
天上的光2 小时前
机器学习——学习路线
人工智能·学习·机器学习
仪器科学与传感技术博士4 小时前
python:如何调节机器学习算法的鲁棒性,以支持向量机SVM为例,让伙伴们看的更明白
python·算法·机器学习
roman_日积跬步-终至千里8 小时前
【机器学习】(算法优化一)集成学习之:装袋算法(Bagging):装袋决策树、随机森林、极端随机树
算法·机器学习·集成学习
linweidong9 小时前
如何设计和实施高效的向量化数据检索解决方案
人工智能·机器学习·大模型·agent·milvus·faiss·向量索引
小关会打代码9 小时前
机器学习第三课之逻辑回归(三)LogisticRegression
人工智能·机器学习·逻辑回归·下采样·过采样
weixin_4640780718 小时前
机器学习sklearn:过滤
人工智能·机器学习·sklearn
weixin_4640780718 小时前
机器学习sklearn:降维
人工智能·机器学习·sklearn