吃瓜教程Task1:概览西瓜书+南瓜书第1、2章

由于本人之前已经学习过西瓜书,本次学习主要是对以往知识的查漏补缺,因此本博客记录了在学习西瓜书中容易混淆的点以及学习过程中的难点。更多学习内容可以参考下面的链接:

南瓜书的地址:https://github.com/datawhalechina/pumpkin-book

【视频链接】https://www.bilibili.com/video/BV1Mh411e7VU?p=1

文章目录

绪论

如何对机器学习任务进行分类?

  • 按标记的取值类型分:回归(连续)和分类(离散)
  • 按是否用到标记信息分:有有监督学习(有标记)和无监督学习(无标记)

归纳偏好的意义?

  • 机器学习算法在学习过程中对某种类型假设的偏好。
  • 任何一个有效的机器学习算法必有其归纳偏好,否则它将被假设空间中看似在训练集上"等效"的假设所迷惑,而无法产生确定的学习结果。
  • 归纳偏好对应了学习算法本身所做出的关于"什么样的模型更好"的假设。在具体的现实问题中,这个假设是否成立,即算法的归纳偏好是否与问题本身匹配 ,大多数时候直接决定了算法能否取得好的性能

没有免费的午餐定理(NFL)

众算法生而平等

实际应用:哪个算法训出来的模型在测试集上表现好哪个算法就nb

数据决定模型的上限,而算法则是让模型无限逼近上限

  • 数据决定模型效果的上限:其中数据是指从数据量特征工程 两个角度考虑。
    • 从数据量的角度来说,通常数据量越大模型效果越好,因为数据量大即表示累计的经验多,因此模型学习到的经验也多,自然表现效果越好。
    • 从特征工程的角度来说,通常对特征数值化越合理,特征收集越全越细致,模型效果通常越好,因为此时模型更易学得样本之间潜在的规律。
  • 算法则是让模型无限逼近上限:是指当数据相关的工作已准备充分时,接下来便可用各种可适用的算法从数据中学习其潜在的规律进而得到模型,不同的算法学习得到的模型效果自然有高低之分,效果越好则越逼近上限,即逼近真相。

模型评估与选择

常见的性能指标有那些?

错误率、精度、查准率、查全率、F1、ROC和AUC

ROC曲线和AUC

与P-R曲线使用查准率、查全率为纵、横轴不同,ROC曲线的纵轴是"真正例率"(True Positive Rate,简称TPR),横轴是"假正例率"(False PositiveRate,简称FPR)。关键推导的理解如下,更多内容见西瓜书。

总结

本文主要记录了在复习西瓜书一二章过程中容易混淆的一些点。

相关推荐
Elastic 中国社区官方博客3 分钟前
Elasticsearch:Retrievers 介绍
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
&黄昏的乐师27 分钟前
Opencv+ROS实现颜色识别应用
人工智能·opencv·学习·计算机视觉
小馒头学python40 分钟前
深度学习中的卷积神经网络:原理、结构与应用
人工智能·深度学习·cnn
2zcode40 分钟前
基于YOLOv8深度学习的脑肿瘤智能检测系统设计与实现(PyQt5界面+数据集+训练代码)
人工智能·深度学习·yolo
fhf1 小时前
感觉根本等不到35岁AI就把我裁了
前端·人工智能·程序员
m0_742848881 小时前
PyTorch3
人工智能·深度学习
lindsayshuo1 小时前
香橙派--安装RKMPP、x264、libdrm、FFmpeg(支持rkmpp)以及opencv(支持带rkmpp的ffmpeg)(适用于RK3588平台)
人工智能·opencv·ffmpeg
soso19681 小时前
构建与优化数据仓库-实践指南
大数据·数据仓库·人工智能
linmoo19861 小时前
java脚手架系列16-AI大模型集成
java·人工智能·ai·大模型·通义千问·qwen·脚手架
无水先生1 小时前
ML 系列:第 36 节 — 统计学中的抽样类型
人工智能·机器学习·概率论