机器学习期末速成

文章参考自B站机器学习期末速成课

本文仅作者个人复习使用

一、机器学习分类

聚类和分类的区别:

分类:一开始就知道有哪些类别

聚类:一开始不知道有哪些类别

损失函数:简单来说就是你预测出来的结果和真实值的差距。

0-1损失函数:一般做二分类问题

数据特征工程,相当于对原始数据进行一定的清理和提纯。

二、逻辑回归







sigmoid函数会让输出值在0-1之间


求参数,比如w和b,一般用梯度下降算法。

三、决策树










信息熵和信息增益描述数据的混乱程度

Gini系数则是描述数据的纯度

两者都是越小越好

四、集成学习算法

















五、支持向量机

两个类别边缘上的点叫支持向量

硬间隔:完全分类准确

软间隔:存在分类错误的情况






六、聚类









七、特征工程和指标












相关推荐
koo3643 小时前
李宏毅机器学习笔记30
人工智能·笔记·机器学习
长桥夜波4 小时前
机器学习日报02
人工智能·机器学习·neo4j
tainshuai4 小时前
YOLOv4 实战指南:单 GPU 训练的目标检测利器
yolo·目标检测·机器学习
wperseverance5 小时前
Pytorch常用层总结
深度学习·机器学习
Theodore_10227 小时前
机器学习(7)逻辑回归及其成本函数
人工智能·机器学习
彩云回8 小时前
LOESS回归
人工智能·机器学习·回归·1024程序员节
Ai173163915799 小时前
英伟达RTX 6000 Ada 和L40S 对比,哪个更适合做深度学习?
图像处理·人工智能·gpt·深度学习·神经网络·机器学习·电脑
Theodore_10229 小时前
机器学习(8)梯度下降的实现与过拟合问题
人工智能·深度学习·机器学习·计算机视觉·线性回归
我爱鸢尾花10 小时前
CNN基础理论讲解及Python代码复现
人工智能·python·深度学习·神经网络·算法·机器学习·cnn
isyoungboy11 小时前
使用SVM构建光照鲁棒的颜色分类器:从特征提取到SVM
算法·机器学习·支持向量机