机器学习技术栈—— 概率学基础

机器学习技术栈------ 概率学基础

先验概率、后验概率、似然概率

首先
p ( w ∣ X ) = p ( X ∣ w ) ∗ p ( w ) p ( X ) p(w|X) =\frac{ p(X|w)*p(w)}{p(X)} p(w∣X)=p(X)p(X∣w)∗p(w)

也就有
p ( w ∣ X ) ∝ p ( X ∣ w ) ∗ p ( w ) p(w|X) \propto p(X|w)*p(w) p(w∣X)∝p(X∣w)∗p(w)
p ( w ) p(w) p(w)是先验 (prior)概率,即 入为主,基于历史规律或经 ,对事件 w w w做出概率为 p ( w ) p(w) p(w)的判断,而非基于客观事实。
p ( w ∣ X ) p(w|X) p(w∣X)是后验 (posterior)概率,即马 炮,基于事实的校 ,对事件 w w w做出一定条件下的概率判断。
p ( X ∣ w ) p(X|w) p(X∣w)是似然 (likelihood)概率,似然,即似乎这样 ,也就是事件 w w w发生时,发生 X X X的概率似乎是 p ( X ∣ w ) p(X|w) p(X∣w)这么大,是一个根据数据统计得到的概率,这一点性质和先验是一样的。

如何科学的马后炮得到后验概率呢?就要先依托历史规律,然后摆数据,历史规律+实事求是的数据就是科学的马后炮。后验概率,是在有数据后,对先验概率进行纠偏的概率。

参考文章
Bayes' Rule -- Explained For Beginners
《【辨析】先验概率、后验概率、似然概率》

总体标准差和样本标准差

样本标准差(sample standard deviation): S = ∑ ( X i − X ˉ ) 2 n − 1 S =\sqrt{ \frac{\sum(X_i - \bar X)^2}{n-1}} S=n−1∑(Xi−Xˉ)2

总体标准差(population standard deviation): σ = ∑ ( X i − X ˉ ) 2 n \sigma =\sqrt{ \frac{\sum(X_i - \bar X)^2}{n}} σ=n∑(Xi−Xˉ)2 ,population也有全体的意思

参考文章
Standard_deviation - Wiki
相关推荐
微盛企微增长小知识几秒前
2025企业微信AI新突破:微盛·企微管家智能回复如何融合企业的业务生成场景话术?
大数据·人工智能
刘永鑫Adam几秒前
Nature Methods | 诸奇赟组-Scikit-bio:用于生物组学数据分析的基础Python库
人工智能·python·算法·机器学习·数据分析
许泽宇的技术分享2 分钟前
AI驱动的智能研究助手:从零到一打造人机协作的研究画布
人工智能
Coder_Boy_4 分钟前
SpringAI与LangChain4j的智能应用-(理论篇)
人工智能·spring·mybatis·springai·langchain4j
Das15 分钟前
【计算机视觉】08_识别分类
人工智能·计算机视觉·分类
腾迹6 分钟前
2025企业微信客户流失预警策略:微盛·企微管家SCRM配置指南
人工智能·企业微信
plmm烟酒僧7 分钟前
使用 OpenVINO 本地部署 DeepSeek-R1 量化大模型(第二章:前端交互与后端服务)
前端·人工智能·大模型·intel·openvino·端侧部署·deepseek
byzh_rc8 分钟前
[模式识别-从入门到入土] 支持向量积SVM
数据库·人工智能·算法
laozhao4329 分钟前
各方面横向对比,标标达和剑鱼标讯谁更正规?
大数据·人工智能
大数据追光猿10 分钟前
【Agent】高可用智能 Agent:记忆机制设计与性能优化实战
人工智能·python·langchain·大模型·agent