恶补,先验分布,后验分布 ,似然估计

恶补,打一遍增加印象

声明:仅记录个人学习,并无其他用途。

先验分布

后验分布,

似然估计

隔壁小哥的故事:

隔壁小哥要去15公里外的一个公园里玩,小哥可以选择步行走路、骑车或者开汽车,然后通过其中一种方式花了一段时间到达公园。

在这个例子种呢,无论采用哪种交通方式 ,这是 !而花了多长的时间 ,这是

假设我们知道小哥花了一小时 到达公园,那我们能知道他是通过哪种方式过去的吗?事实上,我们并不能很确定小哥的交通方式。可能是骑车呢?或者开车过去却堵车呢? 假设我们知道小哥花了三个小时 才到达了公园,那这个时候呢,我们大部分人觉得很可能是走路过去的。

假设小哥只花了20分钟呢,那我们又会觉得是开法拉利过去的。

这几种不同的情况呢,就是我们已经事先得知了结果(花了多少时间) ,然后我们根据这个结果(时间)去猜测原因(交通方式)的概率分布。
这就是
后验概率

将该例子公式化:
P ( 交通方式 ∣ 花费的时间 ) P(交通方式|花费的时间) P(交通方式∣花费的时间)

修改成一般的公式:
P ( 因 ∣ 果 ) P(因|果) P(因∣果)

公式正规化:
P ( θ ∣ x ) P(\theta|x) P(θ∣x)

假设你对这个小哥的为人了解,他可能是很懒的人,就坐车去,可能是个爱跑步的人,就跑去,会导致时间的花费不同。在这个情景下呢,交通工具的选择与花费时间不再相关,因为我们在结果发生前就开始猜测 。这就是先验概率。

将该例子公式化:
P ( 交通方式 ) P(交通方式) P(交通方式)

修改成一般的公式:
P ( 因 ) P(因) P(因)

公式正规化:
P ( θ ) P(\theta) P(θ)

假设了小哥是步行去的,

在一般情况下,小哥大概需要2小时

特殊情况,小哥是飞毛腿,跑步去花了1小时。

更特殊的,小哥开挂,1秒钟就到。

再来个情景, 小哥开车去咯,正常20分钟,但小概率小哥遇到了堵车,开了几小时。

这种,我们是先确定了原因,然后根据原因来估计结果的概率分布即似然估计

将该例子公式化:
P ( 时间 ∣ 交通方式 ) P(时间|交通方式) P(时间∣交通方式)

修改成一般的公式:
P ( 果 ∣ 因 ) P(果|因) P(果∣因)

公式正规化:
P ( x ∣ θ ) P(x|\theta) P(x∣θ)

引入贝叶斯公式:

公式如下:
P ( A ∣ B ) = P ( B ∣ A ) ∗ P ( A ) P ( B ) P(A|B)=\frac{P(B|A)*P(A)}{P(B)} P(A∣B)=P(B)P(B∣A)∗P(A)

按照下方图片即可轻松理解贝叶斯公式。

在这里我们采用另一种形式:
P ( θ ∣ x ) = P ( x ∣ θ ) ∗ P ( θ ) P ( x ) P(\theta|x)=\frac{P(x|\theta)*P(\theta)}{P(x)} P(θ∣x)=P(x)P(x∣θ)∗P(θ)

解释一下,怕自己搞混乱了。

在这里,P(x) 就是已经发生的那个结果。

而 p ( θ ) p(\theta) p(θ)就是导致发生这个结果的原因,是其中一个可能原因,

所以这是先验概率

所以呢,$P(x|\theta)¥ 就是用原因去猜结果,所以代表似然估计。

后验概率 = 似然估计 ∗ 先验概率 e v i d e n c e 后验概率=\frac{似然估计*先验概率}{evidence} 后验概率=evidence似然估计∗先验概率

[注意] P(x) 即 evidence。小哥去公园很多次,但忽略了交通公式是什么,只统计每次到达公园的时间x,于是会得到一组时间的概率分布 (结果)。

这种不考虑原因,只看结果的概率分布即evidence,也称为样本发生的概率分布的证据。

相关推荐
古希腊掌管学习的神37 分钟前
[机器学习]XGBoost(3)——确定树的结构
人工智能·机器学习
ZHOU_WUYI1 小时前
4.metagpt中的软件公司智能体 (ProjectManager 角色)
人工智能·metagpt
靴子学长2 小时前
基于字节大模型的论文翻译(含免费源码)
人工智能·深度学习·nlp
AI_NEW_COME3 小时前
知识库管理系统可扩展性深度测评
人工智能
海棠AI实验室3 小时前
AI的进阶之路:从机器学习到深度学习的演变(一)
人工智能·深度学习·机器学习
hunteritself3 小时前
AI Weekly『12月16-22日』:OpenAI公布o3,谷歌发布首个推理模型,GitHub Copilot免费版上线!
人工智能·gpt·chatgpt·github·openai·copilot
IT古董4 小时前
【机器学习】机器学习的基本分类-强化学习-策略梯度(Policy Gradient,PG)
人工智能·机器学习·分类
centurysee4 小时前
【最佳实践】Anthropic:Agentic系统实践案例
人工智能
mahuifa4 小时前
混合开发环境---使用编程AI辅助开发Qt
人工智能·vscode·qt·qtcreator·编程ai
四口鲸鱼爱吃盐4 小时前
Pytorch | 从零构建GoogleNet对CIFAR10进行分类
人工智能·pytorch·分类