一起对话式学习-机器学习01——贝叶斯学习

【一】声明

由于时间关系,这个系列主要推理内容可能大部分以手写笔记的形式展示,但是对于有大量公式形式及数学推导的科目来说,将更多的精力专注于对内容本身的理解中应该是更合理的。(之后会规范字体QAQ)

【二】贝叶斯学习

1.内容定位

本节是隶属于"对机器学习依照技巧进行分类"的部分,但是是遇到的第一个主要内容,所以以此开头,之后会将机器学习的介绍(分类等)作为00补充。

2.通俗讲解

这部分的内容看起来很繁琐,但我选择采用这样的形式------对话式学习,只要你耐下心来结合笔记去读,一定能进入状态、读得懂且有所收获。

贝叶斯定理大家都在概率论中学习过,依稀记得先验分布、公式形式?但可能不太了解它的用处,简单来说:

经典统计学认为,对于一个随机变量X,必须要有它的一些样本X1,X2,......Xn才能估计X所属的总体分布,估计方法比如说常见的极大似然估计。

是,他们想的很好,但是现实生活中哪有那么理想?很多情况就是不知道X的样本信息。咋办?贝叶斯学派可以做到

利用参数的先验分布(这是根据经验观察到的分布)来实现,参数是什么?是X的概率密度函数中的未知参数,知道了它就明确了X的分布,甚至你可以说,它决定了X的分布。你说这是知道来的?假定的。好,那么现在只要知道参数的值就ok了,唉?不是已经知道的分布了,直接用不就好了。没错,在你真的不知道X样本信息的情况下大可以这样做,具体的做法就是笔记中预测的第一种情况,叫做------先验预测分布。

这莫简单?前面说了,这是你不知道X样本信息的情况,当你知道X样本信息的话 就不能用贝叶斯只用经典统计了吗?不是,反而更应该用,就是笔记中的第二种情况,这要求你通过先验分布得到后验分布(过程在笔记第一页),什么叫后验?就是经过已知的X样本检验后的分布(综合了X样本信息),这就使的分布更准确了。得到后验分布后,这一定是一个条件分布的形式:Π(|X样本),取是概率值最大的点------一个值,代入情况二就ok,还是和情况一 一样的做法。至于情况三,和情况二如出一辙。这两个都叫做------后验预测分布。

总的来说,是不是贝叶斯比经典统计多利用上了的先验分布信息并且适用了更多的情况。

3.笔记展示


++Over!!!++


相关推荐
China_Yanhy29 分钟前
动手学大模型第一篇学习总结
人工智能
空间机器人39 分钟前
自动驾驶 ADAS 器件选型:算力只是门票,系统才是生死线
人工智能·机器学习·自动驾驶
&&Citrus40 分钟前
【CPN学习笔记(二)】Chap2 非分层颜色 Petri 网——从一个简单协议开始读懂 CPN
笔记·学习·php·cpn·petri网
C+++Python1 小时前
提示词、Agent、MCP、Skill 到底是什么?
人工智能
小松要进步1 小时前
机器学习1
人工智能·机器学习
泰恒1 小时前
openclaw近期怎么样了?
人工智能·深度学习·机器学习
KaneLogger1 小时前
从传统笔记到 LLM 驱动的结构化 Wiki
人工智能·程序员·架构
tinygone2 小时前
OpenClaw之Memory配置成本地模式,Ubuntu+CUDA+cuDNN+llama.cpp
人工智能·ubuntu·llama
正在走向自律2 小时前
第二章-AIGC入门-AIGC工具全解析:技术控的效率神器,DeepSeek国产大模型的骄傲(8/36)
人工智能·chatgpt·aigc·可灵·deepseek·即梦·阿里通义千问
轩轩分享AI2 小时前
DeepSeek、Kimi、笔灵谁最好用?5款网文作者亲测的AI写作神器横评
人工智能·ai·ai写作·小说写作·小说·小说干货