吃瓜教程Task1:概览西瓜书+南瓜书第1、2章

由于本人之前已经学习过西瓜书,本次学习主要是对以往知识的查漏补缺,因此本博客记录了在学习西瓜书中容易混淆的点以及学习过程中的难点。更多学习内容可以参考下面的链接:

南瓜书的地址:https://github.com/datawhalechina/pumpkin-book

【视频链接】https://www.bilibili.com/video/BV1Mh411e7VU?p=1

文章目录

绪论

如何对机器学习任务进行分类?

  • 按标记的取值类型分:回归(连续)和分类(离散)
  • 按是否用到标记信息分:有有监督学习(有标记)和无监督学习(无标记)

归纳偏好的意义?

  • 机器学习算法在学习过程中对某种类型假设的偏好。
  • 任何一个有效的机器学习算法必有其归纳偏好,否则它将被假设空间中看似在训练集上"等效"的假设所迷惑,而无法产生确定的学习结果。
  • 归纳偏好对应了学习算法本身所做出的关于"什么样的模型更好"的假设。在具体的现实问题中,这个假设是否成立,即算法的归纳偏好是否与问题本身匹配 ,大多数时候直接决定了算法能否取得好的性能

没有免费的午餐定理(NFL)

众算法生而平等

实际应用:哪个算法训出来的模型在测试集上表现好哪个算法就nb

数据决定模型的上限,而算法则是让模型无限逼近上限

  • 数据决定模型效果的上限:其中数据是指从数据量特征工程 两个角度考虑。
    • 从数据量的角度来说,通常数据量越大模型效果越好,因为数据量大即表示累计的经验多,因此模型学习到的经验也多,自然表现效果越好。
    • 从特征工程的角度来说,通常对特征数值化越合理,特征收集越全越细致,模型效果通常越好,因为此时模型更易学得样本之间潜在的规律。
  • 算法则是让模型无限逼近上限:是指当数据相关的工作已准备充分时,接下来便可用各种可适用的算法从数据中学习其潜在的规律进而得到模型,不同的算法学习得到的模型效果自然有高低之分,效果越好则越逼近上限,即逼近真相。

模型评估与选择

常见的性能指标有那些?

错误率、精度、查准率、查全率、F1、ROC和AUC

ROC曲线和AUC

与P-R曲线使用查准率、查全率为纵、横轴不同,ROC曲线的纵轴是"真正例率"(True Positive Rate,简称TPR),横轴是"假正例率"(False PositiveRate,简称FPR)。关键推导的理解如下,更多内容见西瓜书。

总结

本文主要记录了在复习西瓜书一二章过程中容易混淆的一些点。

相关推荐
没事勤琢磨15 分钟前
如何让 OpenClaw 控制使用浏览器:让 AI 像真人一样操控你的浏览器
人工智能
用户51914958484518 分钟前
CrushFTP 认证绕过漏洞利用工具 (CVE-2024-4040)
人工智能·aigc
牛马摆渡人52835 分钟前
OpenClaw实战--Day1: 本地化
人工智能
前端小豆36 分钟前
玩转 OpenClaw:打造你的私有 AI 助手网关
人工智能
BugShare1 小时前
写一个你自己的Agent Skills
人工智能·程序员
机器之心1 小时前
英伟达护城河被AI攻破,字节清华CUDA Agent,让人人能搓CUDA内核
人工智能·openai
小黎14757789853641 小时前
OpenClaw 连接飞书完整指南:插件安装、配置与踩坑记录
机器学习
后端小肥肠2 小时前
公众号躺更神器!OpenClaw+Claude Skill 实现自动读对标 + 写文 + 配图 + 存入草稿箱
人工智能·aigc·agent
爱可生开源社区2 小时前
SCALE | 重构 AI 时代数据库能力的全新评估标准
人工智能
Jahzo3 小时前
openclaw本地化部署体验与踩坑记录--飞书机器人配置
人工智能·开源