机器学习技术栈—— 概率学基础

机器学习技术栈------ 概率学基础

先验概率、后验概率、似然概率

首先
p ( w ∣ X ) = p ( X ∣ w ) ∗ p ( w ) p ( X ) p(w|X) =\frac{ p(X|w)*p(w)}{p(X)} p(w∣X)=p(X)p(X∣w)∗p(w)

也就有
p ( w ∣ X ) ∝ p ( X ∣ w ) ∗ p ( w ) p(w|X) \propto p(X|w)*p(w) p(w∣X)∝p(X∣w)∗p(w)
p ( w ) p(w) p(w)是先验 (prior)概率,即 入为主,基于历史规律或经 ,对事件 w w w做出概率为 p ( w ) p(w) p(w)的判断,而非基于客观事实。
p ( w ∣ X ) p(w|X) p(w∣X)是后验 (posterior)概率,即马 炮,基于事实的校 ,对事件 w w w做出一定条件下的概率判断。
p ( X ∣ w ) p(X|w) p(X∣w)是似然 (likelihood)概率,似然,即似乎这样 ,也就是事件 w w w发生时,发生 X X X的概率似乎是 p ( X ∣ w ) p(X|w) p(X∣w)这么大,是一个根据数据统计得到的概率,这一点性质和先验是一样的。

如何科学的马后炮得到后验概率呢?就要先依托历史规律,然后摆数据,历史规律+实事求是的数据就是科学的马后炮。后验概率,是在有数据后,对先验概率进行纠偏的概率。

参考文章
Bayes' Rule -- Explained For Beginners
《【辨析】先验概率、后验概率、似然概率》

总体标准差和样本标准差

样本标准差(sample standard deviation): S = ∑ ( X i − X ˉ ) 2 n − 1 S =\sqrt{ \frac{\sum(X_i - \bar X)^2}{n-1}} S=n−1∑(Xi−Xˉ)2

总体标准差(population standard deviation): σ = ∑ ( X i − X ˉ ) 2 n \sigma =\sqrt{ \frac{\sum(X_i - \bar X)^2}{n}} σ=n∑(Xi−Xˉ)2 ,population也有全体的意思

参考文章
Standard_deviation - Wiki
相关推荐
LaughingZhu4 分钟前
Product Hunt 每日热榜 | 2026-04-30
人工智能·经验分享·深度学习·神经网络·产品运营
sunneo10 分钟前
专栏D-团队与组织-03-产品文化
人工智能·产品运营·aigc·产品经理·ai编程
Muyuan199810 分钟前
28.Paper RAG Agent 开发记录:修复 LLM Rerank 的解析、Fallback 与可验证性
linux·人工智能·windows·python·django·fastapi
AI科技星15 分钟前
精细结构常数α作为SI 7大基本量纲统一耦合常数的量子几何涌现理论
算法·机器学习·数学建模·数据挖掘·量子计算
小呆呆66624 分钟前
Codex 穷鬼大救星
前端·人工智能·后端
薛定猫AI29 分钟前
【深度解析】Kimi K2.6 的长上下文 Agentic Coding 能力与 OpenAI 兼容 API 接入实践
人工智能·自动化·知识图谱
星爷AG I32 分钟前
20-6 记忆整合(AGI基础理论)
人工智能·agi
AI创界者34 分钟前
人工智能 GPT-Image DMXAPI Python AI绘画
人工智能
哥布林学者38 分钟前
深度学习进阶(十六) 混合注意力 CBAM
机器学习·ai
播播资源40 分钟前
GPT-5.5 模型功能深度解析:从模型介绍、核心特点到应用场景全景分析 如何快速接入使用
人工智能·gpt