概率论几种易混淆的形式

  1. 正态分布标准型

x − μ σ \frac{x - \mu}{\sigma} σx−μ

  1. 大数定律形式

P { X ≤ ∑ i = 1 n x i − n μ n σ 2 } = ∫ − ∞ X 1 2 π e − x 2 2 d x P\{X \le \frac{\sum_{i= 1}^{n}x_i -n\mu}{\sqrt{n\sigma^2}} \} = \int _{-\infty}^{X}\frac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}}dx P{X≤nσ2 ∑i=1nxi−nμ}=∫−∞X2π 1e−2x2dx

即:

P { X ≤ x ˉ − μ σ n } = ∫ − ∞ X 1 2 π e − x 2 2 d x P\{X \le \frac{\bar x -\mu}{\frac{\sigma}{\sqrt{n}}} \} = \int _{-\infty}^{X}\frac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}}dx P{X≤n σxˉ−μ}=∫−∞X2π 1e−2x2dx

  1. 关于 χ 2 \chi^2 χ2的定理

( n − 1 ) S 2 σ 2 ∼ χ 2 ( n − 1 ) \frac{(n-1)S^2}{\sigma^2} \sim \chi^2(n-1) σ2(n−1)S2∼χ2(n−1)

  1. x ˉ − μ S / n ∼ t 2 ( n − 1 ) \frac{\bar x - \mu}{S/\sqrt{n}} \sim t^2(n-1) S/n xˉ−μ∼t2(n−1)
相关推荐
图先1 天前
概率论第六讲—数理统计
概率论
西猫雷婶3 天前
scikit-learn/sklearn学习|广义线性回归损失函数的基本表达式
深度学习·神经网络·学习·机器学习·线性回归·scikit-learn·概率论
xz2024102****4 天前
最大似然估计:损失函数的底层数学原理
人工智能·算法·机器学习·概率论
kingmax542120085 天前
概率与数理统计公式及结论汇总
人工智能·机器学习·概率论
西猫雷婶5 天前
神经网络|(十九)概率论基础知识-伽马函数·下
人工智能·深度学习·神经网络·机器学习·回归·scikit-learn·概率论
西猫雷婶8 天前
神经网络|(十八)概率论基础知识-伽马函数溯源-阶乘的积分表达式
人工智能·深度学习·神经网络·机器学习·概率论
西猫雷婶12 天前
神经网络|(十六)概率论基础知识-伽马函数·中
人工智能·深度学习·神经网络·学习·机器学习·概率论
西西弗Sisyphus12 天前
大模型 多轮对话
语言模型·概率论·知识蒸馏
Jooou14 天前
机器学习:贝叶斯派和频率派
机器学习·概率论·贝叶斯派
simon_skywalker17 天前
概率论基础教程第六章 随机变量的联合分布(二)
概率论