《概率论与数理统计》学渣笔记

文章目录

  • [1 随机事件和概率](#1 随机事件和概率)
    • [1.1 古典概型求概率](#1.1 古典概型求概率)
    • [1.2 几何概型求概率](#1.2 几何概型求概率)
    • [1.3 重要公式求概率](#1.3 重要公式求概率)
  • [2 一维随机变量及其分布](#2 一维随机变量及其分布)
    • [2.1 随机变量及其分布函数的定义](#2.1 随机变量及其分布函数的定义)
    • [2.2 离散型分布](#2.2 离散型分布)
      • [0-1分布 X ∼ B ( 1 , p ) X \sim B(1,p) X∼B(1,p)](#0-1分布 X ∼ B ( 1 , p ) X \sim B(1,p) X∼B(1,p))
      • [二项分布 X ∼ B ( n , p ) X\sim B(n,p) X∼B(n,p)](#二项分布 X ∼ B ( n , p ) X\sim B(n,p) X∼B(n,p))
      • [几何分布 X ∼ G ( p ) X\sim G(p) X∼G(p)](#几何分布 X ∼ G ( p ) X\sim G(p) X∼G(p))
      • [超几何分布 X ∼ H ( n , M , N ) X\sim H(n,M,N) X∼H(n,M,N)](#超几何分布 X ∼ H ( n , M , N ) X\sim H(n,M,N) X∼H(n,M,N))
      • [泊松分布 X ∼ P ( λ ) X\sim P(λ) X∼P(λ)](#泊松分布 X ∼ P ( λ ) X\sim P(λ) X∼P(λ))
      • 离散型→离散型
    • [2.3 连续型分布](#2.3 连续型分布)
      • [均匀分布 X ∼ U ( a , b ) X\sim U(a,b) X∼U(a,b)](#均匀分布 X ∼ U ( a , b ) X\sim U(a,b) X∼U(a,b))
      • [指数分布 X ∼ E ( λ ) X\sim E(λ) X∼E(λ)](#指数分布 X ∼ E ( λ ) X\sim E(λ) X∼E(λ))
      • [正态分布 X ∼ N ( μ , σ 2 ) X\sim N(μ,σ^2) X∼N(μ,σ2)](#正态分布 X ∼ N ( μ , σ 2 ) X\sim N(μ,σ^2) X∼N(μ,σ2))
      • 连续型→离散型
    • [2.4 混合型分布](#2.4 混合型分布)
  • [3 多维随机变量及其分布](#3 多维随机变量及其分布)
  • [4 数字特征](#4 数字特征)
    • [4.1 数学期望](#4.1 数学期望)
    • [4.2 方差](#4.2 方差)
    • [4.3 亚当夏娃公式](#4.3 亚当夏娃公式)
    • [4.4 常用分布的期望和方差](#4.4 常用分布的期望和方差)
    • [4.5 协方差](#4.5 协方差)
    • [4.6 相关系数](#4.6 相关系数)
    • [4.7 独立性与不相关性的判定](#4.7 独立性与不相关性的判定)
    • [4.8 切比雪夫不等式](#4.8 切比雪夫不等式)
  • [5 大数定律与中心极限定理](#5 大数定律与中心极限定理)
    • [5.1 切比雪夫大数定律(均值依概率收敛到期望)](#5.1 切比雪夫大数定律(均值依概率收敛到期望))
    • [5.2 伯努利大数定律(频率依概率收敛到概率)](#5.2 伯努利大数定律(频率依概率收敛到概率))
    • [5.3 辛钦大数定律(均值依概率收敛到期望)](#5.3 辛钦大数定律(均值依概率收敛到期望))
    • [5.4 中心极限定理(n足够大时,均收敛于正态分布)](#5.4 中心极限定理(n足够大时,均收敛于正态分布))
  • [6 统计量及其分布](#6 统计量及其分布)
    • [6.1 统计量](#6.1 统计量)
    • [6.2 标准正态分布分布的上α分位数](#6.2 标准正态分布分布的上α分位数)
    • [6.3 卡方分布 X ∼ χ 2 ( n ) X\sim \chi^2(n) X∼χ2(n)](#6.3 卡方分布 X ∼ χ 2 ( n ) X\sim \chi^2(n) X∼χ2(n))
    • [6.4 t分布 t ∼ t ( n ) t\sim t(n) t∼t(n)](#6.4 t分布 t ∼ t ( n ) t\sim t(n) t∼t(n))
    • [6.5 F分布 F ∼ F ( n 1 , n 2 ) F\sim F(n_1,n_2) F∼F(n1,n2)](#6.5 F分布 F ∼ F ( n 1 , n 2 ) F\sim F(n_1,n_2) F∼F(n1,n2))
    • [6.6 正态总体下的常用结论](#6.6 正态总体下的常用结论)
  • [7 参数估计与假设检验](#7 参数估计与假设检验)

1 随机事件和概率

1.1 古典概型求概率

在古典概型中,样本空间中的每个基本事件发生的概率是相同的。如果样本空间中有 n n n 个可能的基本事件,而感兴趣的事件 A A A 包含其中的 m m m 个基本事件,则事件 A A A 发生的概率 P ( A ) P(A) P(A) 可以表示为:

P ( A ) = 事件 A 包含的基本事件数 样本空间Ω中的基本事件总数 = m n \boldsymbol{P(A) = \frac{\text{事件 } A \text{ 包含的基本事件数}}{\text{样本空间Ω中的基本事件总数}} = \frac{m}{n}} P(A)=样本空间Ω中的基本事件总数事件 A 包含的基本事件数=nm

求解步骤

  1. 确定样本空间 :首先需要明确所有可能的结果,这些结果构成了样本空间 Ω Ω Ω。

  2. 确定感兴趣的事件 :明确你要计算的事件 A A A,并找到包含在这个事件中的基本事件。

  3. 计算概率 :使用上述公式 P ( A ) = m n P(A) = \frac{m}{n} P(A)=nm 来计算概率。

例子 1:投掷一枚公平的六面骰子

  • 样本空间 Ω = { 1 , 2 , 3 , 4 , 5 , 6 } Ω = \{1, 2, 3, 4, 5, 6\} Ω={1,2,3,4,5,6},其中 n = 6 n = 6 n=6。
  • 事件 A A A:投掷结果是一个偶数。
  • 包含的基本事件 A = { 2 , 4 , 6 } A = \{2, 4, 6\} A={2,4,6},其中 m = 3 m = 3 m=3。
  • 概率 : P ( A ) = m n = 3 6 = 1 2 P(A) = \frac{m}{n} = \frac{3}{6} = \frac{1}{2} P(A)=nm=63=21。

例子 2:从一副52张的扑克牌中抽取一张

  • 样本空间 Ω Ω Ω 包含所有52张牌,其中 n = 52 n = 52 n=52。
  • 事件 A A A:抽取到红心。
  • 包含的基本事件 A A A 是所有红心牌,有 m = 13 m = 13 m=13 张。
  • 概率 : P ( A ) = m n = 13 52 = 1 4 P(A) = \frac{m}{n} = \frac{13}{52} = \frac{1}{4} P(A)=nm=5213=41。

随机分配问题

将 n 个球随机分配到 N 个盒子中 \boldsymbol{将n个球随机分配到N个盒子中} 将n个球随机分配到N个盒子中

分配方式 不同分法的总数
每个盒子能装任意多个球 N n N^n Nn
每个盒子最多只能容纳一个球 A N n = N ! ( N − n ) ! A_N^n = \frac{N!}{(N-n)!} ANn=(N−n)!N!

"某指定n个":只有1种情况

"恰有n个":有 C N n C_N^n CNn种情况

简单随机抽样问题

从含有 N 个球个盒子中 n 次简单随机抽样 \boldsymbol{从含有N个球个盒子中n次简单随机抽样} 从含有N个球个盒子中n次简单随机抽样

抽样方式 抽样法总数
先后有放回取n次 N n N^n Nn
先后无放回取n次 A N n = N ! ( N − n ) ! A_N^n = \frac{N!}{(N-n)!} ANn=(N−n)!N!
任取n个 C N n C_N^n CNn

抓阄模型:"先后无放回取 k k k个球"与"任取 k k k个球"的概率相同。

1.2 几何概型求概率

P ( A ) = A (子区域:长度,面积) Ω (几何区域:长度,面积) \boldsymbol{P(A)=\frac{A(子区域:长度,面积)}{Ω(几何区域:长度,面积)}} P(A)=Ω(几何区域:长度,面积)A(子区域:长度,面积)

1.3 重要公式求概率




2 一维随机变量及其分布

2.1 随机变量及其分布函数的定义

离散型随机变量及其概率分布(概率分布)


连续型随机变量及其概率分布(分布函数)

2.2 离散型分布

0-1分布 X ∼ B ( 1 , p ) X \sim B(1,p) X∼B(1,p)


二项分布 X ∼ B ( n , p ) X\sim B(n,p) X∼B(n,p)

几何分布 X ∼ G ( p ) X\sim G(p) X∼G(p)

首中即停止(等待型分布),具有无记忆性 首中即停止(等待型分布),具有无记忆性 首中即停止(等待型分布),具有无记忆性


超几何分布 X ∼ H ( n , M , N ) X\sim H(n,M,N) X∼H(n,M,N)

泊松分布 X ∼ P ( λ ) X\sim P(λ) X∼P(λ)

用于描述稀有事件的概率 用于描述稀有事件的概率 用于描述稀有事件的概率


离散型→离散型

2.3 连续型分布


均匀分布 X ∼ U ( a , b ) X\sim U(a,b) X∼U(a,b)


指数分布 X ∼ E ( λ ) X\sim E(λ) X∼E(λ)

正态分布 X ∼ N ( μ , σ 2 ) X\sim N(μ,σ^2) X∼N(μ,σ2)


正态分布,也叫高斯分布,是一种特定的概率分布。其曲线呈钟形,对称于均值。

正态分布的重要性源于以下几个原因:

  1. 自然现象的普遍性:很多自然和社会现象的测量结果近似服从正态分布,比如人的身高、考试成绩、误差分布等。原因是这些现象往往受到多种独立因素的共同影响,而根据中心极限定理,当这些影响因素足够多且相互独立时,其结果往往接近正态分布。

  2. 统计推断的基础 :在统计学中,许多推断方法(如 t t t 检验、 z z z 检验、线性回归等)都基于数据服从正态分布的假设。正态分布的数学特性使得这些方法可以更有效地估计参数、检验假设。

  3. 中心极限定理的支持:无论数据原本的分布是什么样的,只要样本量足够大,样本均值的分布就会趋向于正态分布。这一理论使得我们可以在处理大样本时,使用正态分布来简化问题。

  4. 易于计算和理解:正态分布有简洁的数学表达式,且它的标准化(即转化为标准正态分布)使得很多复杂的计算变得简单、直观。

连续型→离散型

2.4 混合型分布


连续型→连续型(或混合型)



3 多维随机变量及其分布

3.1 定义



3.2 求联合分布

二维均匀分布与二维正态分布





3.3 求边缘分布

3.4 求条件分布

3.5 判独立


3.6 用分布


3.7(离散型,离散型)→离散型

3.8(连续型,连续型)→连续型

分布函数法


卷积公式法(建议用这个)

最值函数的分布


3.10(离散型,连续型)→连续型【全集分解】

3.11 离散型→(离散型,离散型)

3.12 连续型→(离散型,离散型)

3.13 (离散型,离散型)→(离散型,离散型)

3.14 (连续型,连续型)→(离散型,离散型)

3.15 (离散型,连续型)→(离散型,离散型)

4 数字特征

4.1 数学期望


4.2 方差



4.3 亚当夏娃公式


4.4 常用分布的期望和方差

分布 期望 E ( X ) E(X) E(X) 方差 D ( X ) D(X) D(X)
0 − 1 0-1 0−1分布 X ∼ B ( p ) X \sim B(p) X∼B(p) p p p p ( 1 − p ) p(1-p) p(1−p)
二项分布 X ∼ B ( n , p ) X\sim B(n,p) X∼B(n,p) n p np np n p ( 1 − p ) np(1-p) np(1−p)
泊松分布 X ∼ p ( λ ) X\sim p(λ) X∼p(λ) λ λ λ λ λ λ
几何分布 X ∼ G ( p ) X\sim G(p) X∼G(p) 1 p \frac{1}{p} p1 1 − p p 2 \frac{1-p}{p^2} p21−p
超几何分布(了解) X ∼ H ( n , M , N ) X\sim H(n,M,N) X∼H(n,M,N) n M N \frac{nM}{N} NnM n ⋅ M N ⋅ ( 1 − M N ) ⋅ N − n N − 1 n \cdot \frac{M}{N} \cdot \left(1 - \frac{M}{N}\right) \cdot \frac{N-n}{N-1} n⋅NM⋅(1−NM)⋅N−1N−n
均匀分布 X ∼ U ( a , b ) X\sim U(a,b) X∼U(a,b) E ( X ) = a + b 2 E(X)=\frac{a+b}{2} E(X)=2a+b E ( X 2 ) = a 2 + a b + b 2 3 E(X^2) = \frac{a^2 + ab + b^2}{3} E(X2)=3a2+ab+b2 D ( X ) = ( b − a ) 2 12 D(X)=\frac{(b-a)^2}{12} D(X)=12(b−a)2 1 n ∑ i = 1 n ( X i − X ‾ ) 2 = ( b − a ) 2 12 \frac{1}{n}\sum_{i=1}^n(X_i-\overline{X})^2=\frac{(b-a)^2}{12} n1i=1∑n(Xi−X)2=12(b−a)2 D ( X 2 ) = ( b − a ) 4 80 D(X^2) = \frac{(b - a)^4}{80} D(X2)=80(b−a)4
指数分布 X ∼ E ( λ ) X\sim E(λ) X∼E(λ) E ( X ) = 1 λ E(X)=\frac{1}{λ} E(X)=λ1 E ( X 4 ) = 24 λ 4 E(X^4) = \frac{24}{\lambda^4} E(X4)=λ424 D ( X ) = 1 λ 2 D(X)=\frac{1}{λ^2} D(X)=λ21 D ( X 2 ) = 20 λ 4 D(X^2) = \frac{20}{\lambda^4} D(X2)=λ420
正态分布 X ∼ N ( μ , σ 2 ) X\sim N(μ,σ^2) X∼N(μ,σ2) E ( X ) = μ E(X)=μ E(X)=μ E [ ( X − μ ) 4 ] = 3 σ 4 E[(X - \mu)^4] = 3\sigma^4 E[(X−μ)4]=3σ4 E [ ( X − X ‾ ) 4 ] = 3 ( n − 1 ) 2 σ 4 n 2 E[(X - \overline{X})^4] = \frac{3(n-1)^2\sigma^4}{n^2} E[(X−X)4]=n23(n−1)2σ4 D ( X ) = σ 2 D(X)=σ^2 D(X)=σ2 D ( X 2 ) = 2 σ 4 + 4 μ 2 σ 2 D(X^2) = 2\sigma^4 + 4\mu^2\sigma^2 D(X2)=2σ4+4μ2σ2 D ( S 2 ) = 2 σ 4 n − 1 D(S^2)=\frac{2σ^4}{n-1} D(S2)=n−12σ4
标准正态分布 X ∼ N ( 0 , 1 ) X\sim N(0,1) X∼N(0,1) E ( X ) = 0 E(X)=0 E(X)=0 E ( X 4 ) = 3 E(X^4)=3 E(X4)=3 D ( X ) = 1 D(X)=1 D(X)=1 D ( X 2 ) = 2 D(X^2)=2 D(X2)=2
瑞利分布(了解) X ∼ R ( σ ) X \sim \text{R}(\sigma) X∼R(σ) π 2 σ \sqrt{\frac{π}{2}}σ 2π σ ( 2 − π 2 ) σ 2 (2-\frac{π}{2})σ^2 (2−2π)σ2
卡方分布 X ∼ χ 2 ( n ) X\sim \chi^2(n) X∼χ2(n) E ( X ) = n E(X)=n E(X)=n E ( X 4 ) = n ( n + 2 ) ( n + 4 ) E(X^4) = n(n + 2)(n + 4) E(X4)=n(n+2)(n+4) D ( X ) = 2 n D(X)=2n D(X)=2n D ( X 2 ) = 4 n D(X^2)=4n D(X2)=4n
t t t分布 t ∼ t ( n ) t\sim t(n) t∼t(n) 0 0 0 n n − 2 \frac{n}{n-2} n−2n

4.5 协方差


4.6 相关系数


4.7 独立性与不相关性的判定


4.8 切比雪夫不等式


5 大数定律与中心极限定理



5.1 切比雪夫大数定律(均值依概率收敛到期望)

5.2 伯努利大数定律(频率依概率收敛到概率)

5.3 辛钦大数定律(均值依概率收敛到期望)



5.4 中心极限定理(n足够大时,均收敛于正态分布)

6 统计量及其分布

6.1 统计量

统计量是不含未知参数的随机变量的函数 统计量是不含未知参数的随机变量的函数 统计量是不含未知参数的随机变量的函数

6.2 标准正态分布分布的上α分位数



6.3 卡方分布 X ∼ χ 2 ( n ) X\sim \chi^2(n) X∼χ2(n)

标准正态分布的平方 标准正态分布的平方 标准正态分布的平方



6.4 t分布 t ∼ t ( n ) t\sim t(n) t∼t(n)

标准正态分布的单打独斗 标准正态分布的单打独斗 标准正态分布的单打独斗



6.5 F分布 F ∼ F ( n 1 , n 2 ) F\sim F(n_1,n_2) F∼F(n1,n2)

卡方分布的单打独斗 卡方分布的单打独斗 卡方分布的单打独斗

6.6 正态总体下的常用结论

7 参数估计与假设检验

7.1 矩估计



矩估计法的核心思想是使得样本的样本矩 等于总体的理论矩,从而通过这个等式来解出模型的参数。所谓"矩"就是随机变量的不同阶的期望,比如一阶矩是期望值,二阶矩是方差等。

参数估计 能揭示数据规律,指导实际应用。描述数据预测未来优化决策风险评估是参数估计的主要用途。

  1. 描述数据特性:估计参数帮助我们理解数据的分布特性,比如正态分布的均值(数据中心)和方差(数据分散程度)。

  2. 预测与推断:通过估计参数,可以进行未来预测或假设检验。例如,使用时间序列模型的参数预测市场趋势。

  3. 建模与优化:许多模型依赖参数估计来优化决策,如线性回归中的回归系数,用于预测或分类。

  4. 风险管理与模拟:估计参数后可以进行数据模拟,帮助评估金融风险或仿真系统性能。

  5. 理论验证与模型选择:通过实际数据检验理论模型,参数估计帮助选择更适合的模型。

7.2 最大似然估计(MLE)


最大似然估计(MLE)是一种广泛使用的统计方法,通过寻找使观测数据出现概率最大的参数,来估计模型中的未知参数。这些估计值对统计模型来说至关重要,因为它们帮助我们了解数据的分布特征。在很多实际问题中,真实的分布参数通常是未知的。例如,你可能知道某个数据集来自正态分布,但不知道这个正态分布的具体均值( μ \mu μ)和方差( σ 2 \sigma^2 σ2)是什么。MLE通过样本数据估计这些参数,从而得出对总体特征的最佳猜测。随着样本量的增加,MLE的估计值会趋近于真实参数,因为它在大样本情况下具有渐近无偏性和渐近有效性。

在实际应用中,这些参数估计值有广泛的用途:

  • 模型预测: 在机器学习中,MLE的参数估计值用于构建预测模型。例如,在逻辑回归中,MLE得到的参数用来预测事件发生的概率。

  • 风险评估: 在金融领域,MLE估计的参数帮助投资者评估和管理风险,比如估计资产回报率的波动性。

  • 工程应用: 在质量控制中,MLE用于估计生产过程中产品的缺陷率,从而帮助改进生产流程。

  • 医学研究: 在医学领域,研究人员通过MLE估计药物疗效的相关参数,从而确定最佳剂量或治疗方案。

总结而言,最大似然估计是一种强大而广泛应用的统计工具,无论是在学术研究还是实际应用中,都能为我们提供有价值的信息和决策支持。

7.3 常见分布的矩估计量和最大似然估计量

X服从的分布 矩估计量 似然估计量
0 − 1 分布 0-1分布 0−1分布 p ^ = X ‾ \hat{p}=\overline{X} p^=X p ^ = X ‾ \hat{p}=\overline{X} p^=X
B ( n , p ) B(n,p) B(n,p) p ^ = X ‾ n \hat{p}=\frac{\overline{X}}{n} p^=nX p ^ = X ‾ n \hat{p}=\frac{\overline{X}}{n} p^=nX
G ( p ) G(p) G(p) p ^ = 1 X ‾ \hat{p}=\frac{1}{\overline{X}} p^=X1 p ^ = 1 X ‾ \hat{p}=\frac{1}{\overline{X}} p^=X1
P ( λ ) P(λ) P(λ) λ ^ = X ‾ \hat{λ}=\overline{X} λ^=X λ ^ = X ‾ \hat{λ}=\overline{X} λ^=X
U ( a , b ) U(a,b) U(a,b) a ^ = X ‾ − 3 n ∑ i = i n ( X i − X ‾ ) \hat{a}=\overline{X}-\sqrt{\frac{3}{n}\sum_{i=i}^n(X_i-\overline{X})} a^=X−n3i=i∑n(Xi−X) b ^ = X ‾ + 3 n ∑ i = i n ( X i − X ‾ ) \hat{b}=\overline{X}+\sqrt{\frac{3}{n}\sum_{i=i}^n(X_i-\overline{X})} b^=X+n3i=i∑n(Xi−X) a ^ = m i n { X 1 , X 2 , . . . , X n } \hat{a}=min\{X_1,X_2,...,X_n\} a^=min{X1,X2,...,Xn} b ^ = m a x { X 1 , X 2 , . . . , X n } \hat{b}=max\{X_1,X_2,...,X_n\} b^=max{X1,X2,...,Xn}
E ( λ ) E(λ) E(λ) λ ^ = 1 X ‾ \hat{λ}=\frac{1}{\overline{X}} λ^=X1 λ ^ = 1 X ‾ \hat{λ}=\frac{1}{\overline{X}} λ^=X1
N ( μ , σ 2 ) N(μ,σ^2) N(μ,σ2) μ ^ = X ‾ \hat{μ}=\overline{X} μ^=X σ 2 ^ = 1 n ∑ i = i n ( X i − X ‾ ) \hat{σ^2}=\frac{1}{n}\sum_{i=i}^n(X_i-\overline{X}) σ2^=n1i=i∑n(Xi−X) μ ^ = X ‾ \hat{μ}=\overline{X} μ^=X σ 2 ^ = 1 n ∑ i = i n ( X i − X ‾ ) \hat{σ^2}=\frac{1}{n}\sum_{i=i}^n(X_i-\overline{X}) σ2^=n1i=i∑n(Xi−X)

7.4 无偏性:求期望

7.5 有效性:比方差,方差越小越有效

7.6 一致性(相合性):大数定律

常用切比雪夫不等式、辛钦大数定律判一致性 常用切比雪夫不等式、辛钦大数定律判一致性 常用切比雪夫不等式、辛钦大数定律判一致性

7.7 区间估计


7.8 假设检验


选择检验统计量


7.9 两类错误

第一类错误:弃真(直接算落入拒绝域的概率)

第二类错误:取伪(直接算落入收敛域的概率)



相关推荐
2302_796984747 小时前
概率论基础知识点公式汇总
概率论
项目申报小狂人7 小时前
广义正态分布优化算法(GNDO)Generalized Normal Distribution Optimization
算法·概率论
2302_796984747 小时前
概率论基础
概率论
感谢地心引力20 小时前
【数据分析】层次贝叶斯
机器学习·数据分析·概率论
Mount25621 小时前
【数理统计】极限定理及抽样分布
概率论
勤劳的进取家1 天前
多维高斯分布
人工智能·机器学习·概率论
公众号Codewar原创作者1 天前
R机器学习:朴素贝叶斯算法的理解与实操
人工智能·机器学习·概率论
orion-orion2 天前
概率论沉思录:初等假设检验
人工智能·概率论·科学哲学
Mount2562 天前
【数理统计】参数估计
概率论
Trouvaille ~4 天前
【机器学习】解构概率,重构世界:贝叶斯定理与智能世界的暗语
人工智能·python·深度学习·神经网络·机器学习·ai·概率论