机器学习技术栈—— 概率学基础

机器学习技术栈------ 概率学基础

先验概率、后验概率、似然概率

首先
p ( w ∣ X ) = p ( X ∣ w ) ∗ p ( w ) p ( X ) p(w|X) =\frac{ p(X|w)*p(w)}{p(X)} p(w∣X)=p(X)p(X∣w)∗p(w)

也就有
p ( w ∣ X ) ∝ p ( X ∣ w ) ∗ p ( w ) p(w|X) \propto p(X|w)*p(w) p(w∣X)∝p(X∣w)∗p(w)
p ( w ) p(w) p(w)是先验 (prior)概率,即 入为主,基于历史规律或经 ,对事件 w w w做出概率为 p ( w ) p(w) p(w)的判断,而非基于客观事实。
p ( w ∣ X ) p(w|X) p(w∣X)是后验 (posterior)概率,即马 炮,基于事实的校 ,对事件 w w w做出一定条件下的概率判断。
p ( X ∣ w ) p(X|w) p(X∣w)是似然 (likelihood)概率,似然,即似乎这样 ,也就是事件 w w w发生时,发生 X X X的概率似乎是 p ( X ∣ w ) p(X|w) p(X∣w)这么大,是一个根据数据统计得到的概率,这一点性质和先验是一样的。

如何科学的马后炮得到后验概率呢?就要先依托历史规律,然后摆数据,历史规律+实事求是的数据就是科学的马后炮。后验概率,是在有数据后,对先验概率进行纠偏的概率。

参考文章
Bayes' Rule -- Explained For Beginners
《【辨析】先验概率、后验概率、似然概率》

总体标准差和样本标准差

样本标准差(sample standard deviation): S = ∑ ( X i − X ˉ ) 2 n − 1 S =\sqrt{ \frac{\sum(X_i - \bar X)^2}{n-1}} S=n−1∑(Xi−Xˉ)2

总体标准差(population standard deviation): σ = ∑ ( X i − X ˉ ) 2 n \sigma =\sqrt{ \frac{\sum(X_i - \bar X)^2}{n}} σ=n∑(Xi−Xˉ)2 ,population也有全体的意思

参考文章
Standard_deviation - Wiki
相关推荐
好多渔鱼好多1 小时前
【AI编程工具】Amazon Q Developer:从CodeWhisperer到云原生AI王者的进化
大数据·人工智能
好家伙VCC2 小时前
**神经编码新视角:用Python实现生物启发的神经信号压缩与解码算法**在人工智能飞速发展的今天
java·人工智能·python·算法
Navicat中国2 小时前
如何使用 Ollama 配置 AI 助手 | Navicat 教程
数据库·人工智能·ai·navicat·ollama
@小匠6 小时前
Read Frog:一款开源的 AI 驱动浏览器语言学习扩展
人工智能·学习
山间小僧7 小时前
「AI学习笔记」RNN
机器学习·aigc·ai编程
网教盟人才服务平台9 小时前
“方班预备班盾立方人才培养计划”正式启动!
大数据·人工智能
芯智工坊9 小时前
第15章 Mosquitto生产环境部署实践
人工智能·mqtt·开源
菜菜艾9 小时前
基于llama.cpp部署私有大模型
linux·运维·服务器·人工智能·ai·云计算·ai编程
TDengine (老段)9 小时前
TDengine IDMP 可视化 —— 分享
大数据·数据库·人工智能·时序数据库·tdengine·涛思数据·时序数据
小真zzz9 小时前
搜极星:第三方多平台中立GEO洞察专家全面解析
人工智能·搜索引擎·seo·geo·中立·第三方平台