机器学习技术栈—— 概率学基础

机器学习技术栈------ 概率学基础

先验概率、后验概率、似然概率

首先
p ( w ∣ X ) = p ( X ∣ w ) ∗ p ( w ) p ( X ) p(w|X) =\frac{ p(X|w)*p(w)}{p(X)} p(w∣X)=p(X)p(X∣w)∗p(w)

也就有
p ( w ∣ X ) ∝ p ( X ∣ w ) ∗ p ( w ) p(w|X) \propto p(X|w)*p(w) p(w∣X)∝p(X∣w)∗p(w)
p ( w ) p(w) p(w)是先验 (prior)概率,即 入为主,基于历史规律或经 ,对事件 w w w做出概率为 p ( w ) p(w) p(w)的判断,而非基于客观事实。
p ( w ∣ X ) p(w|X) p(w∣X)是后验 (posterior)概率,即马 炮,基于事实的校 ,对事件 w w w做出一定条件下的概率判断。
p ( X ∣ w ) p(X|w) p(X∣w)是似然 (likelihood)概率,似然,即似乎这样 ,也就是事件 w w w发生时,发生 X X X的概率似乎是 p ( X ∣ w ) p(X|w) p(X∣w)这么大,是一个根据数据统计得到的概率,这一点性质和先验是一样的。

如何科学的马后炮得到后验概率呢?就要先依托历史规律,然后摆数据,历史规律+实事求是的数据就是科学的马后炮。后验概率,是在有数据后,对先验概率进行纠偏的概率。

参考文章
Bayes' Rule -- Explained For Beginners
《【辨析】先验概率、后验概率、似然概率》

总体标准差和样本标准差

样本标准差(sample standard deviation): S = ∑ ( X i − X ˉ ) 2 n − 1 S =\sqrt{ \frac{\sum(X_i - \bar X)^2}{n-1}} S=n−1∑(Xi−Xˉ)2

总体标准差(population standard deviation): σ = ∑ ( X i − X ˉ ) 2 n \sigma =\sqrt{ \frac{\sum(X_i - \bar X)^2}{n}} σ=n∑(Xi−Xˉ)2 ,population也有全体的意思

参考文章
Standard_deviation - Wiki
相关推荐
政安晨1 小时前
政安晨【零基础玩转开源AI项目】- AutoGPT:全球首个自主AI Agent从入门到实战(致敬OpenClaw的小回顾)
人工智能·ai·autogpt·全球首个agent框架·致敬openclaw之作·参考价值·ai开源agent框架
Shawn_Shawn6 小时前
mcp学习笔记(一)-mcp核心概念梳理
人工智能·llm·mcp
33三 三like8 小时前
《基于知识图谱和智能推荐的养老志愿服务系统》开发日志
人工智能·知识图谱
芝士爱知识a8 小时前
【工具推荐】2026公考App横向评测:粉笔、华图与智蛙面试App功能对比
人工智能·软件推荐·ai教育·结构化面试·公考app·智蛙面试app·公考上岸
腾讯云开发者9 小时前
港科大熊辉|AI时代的职场新坐标——为什么你应该去“数据稀疏“的地方?
人工智能
工程师老罗9 小时前
YoloV1数据集格式转换,VOC XML→YOLOv1张量
xml·人工智能·yolo
Coder_Boy_10 小时前
技术让开发更轻松的底层矛盾
java·大数据·数据库·人工智能·深度学习
啊森要自信10 小时前
CANN ops-cv:面向计算机视觉的 AI 硬件端高效算子库核心架构与开发逻辑
人工智能·计算机视觉·架构·cann
2401_8362358610 小时前
中安未来SDK15:以AI之眼,解锁企业档案的数字化基因
人工智能·科技·深度学习·ocr·生活