概率论相关题型

文章目录

概率论的基本概念

  • 1.互斥事件(互不相容)与对立事件:A 与 B 的交集为空集,A 和 B 不可能同时发生,区别于对立事件(在互斥事件的基础上,A 和 B 的和为全集)
  • 对于互斥事件有 P(A + B + C ··· + Z) = P(A) + P(B) + P( C) + ··· + P(Z)
  • 对于一般的不是互斥,P(A+B) = P(A) + P(B ) - P(AB)这里不是P(A)*P(B) ,三个变量
    P(A+B+C) = P(A) + P(B) + P© -P(AB) -P(AC) -P(BC) +P(ABC)
  • 古典概型,条件概率,三个重要的公式:乘法公式,全概率公式(化整为零),贝叶斯公式(利用先验概率求后验概率)
  • 事件的独立性:P(AB) = P(A)P(B) ,三个事件的独立性要有四个式子成立------> n 各事件相互独立,则任意的2到n-1 的事件都相互独立,替换成对立事件也是成立的
  • P(AB) = P(A) - P(AB非) 这个式子通过包含关系直接推出
  • 为什么分母不使用12*11*10 ,分析,使用这个的话要注意 ,其实这个是A(3,10),那么就是讲究顺序的了,由于筛选是最终的结果,是不讲究顺序的,只能用C(3,10)

放杯子问题

  • 将三个小球放进4各杯子,问杯中的最大小球个数分别为1,2,3的概率

站在小球的角度,选择杯子

  • 对于1:那么就是43 2 / 444
  • 对于3 :就是C(1,4) / 444
  • 对于2: 就是1 - P(1) - P(3)

条件概率与重要公式的结合


  • 可能一开始对于 求P(A2) 没有什么思路,搞不清楚应该怎么算,这时可以考虑用全概率公式

独立的运用

随机变量以及分布

  • 注意区分离散型随机变量:二项分布,(0-1)分布,泊松分布,注意对它们分布列以及分布函数的求解(端点值?)
  • 连续随机变量:均匀分布,指数分布,正态分布
  • 指数分布是没有记忆性的P{X>s+t|X>s} = P{X>t}
  • 二项分布的趋近为(np)泊松分布和正态分布
  • 正态分布在u= 0 ,方差为1 时称为标准的正态分布
  • 注意泊松分布的k 是从0开始的

离散随机变量的分布函数特点


  • 注意离散型随机变量的分布律与分布函数的关系

连续随机变量的分布函数在某一点的值为0

正态分布标准化

  • 注意对带有绝对值的转换,以及带有负数的转换

随机变量函数的分布



  • 对于函数是单调的话,可以使用公式法快速求解,如果不是单调的话,就按照定义一步步求解
  • 注意开始计算的时候,要提前确定好,Y 的范围,是否直接大于0,还是什么范围

多维随机变量以及分布

  • 边缘分布:其中 Z = X + Y ,所得到的z 的边缘分布被称为卷积公式
  • 对于 M =max{X,Y} 与 N = min{X,Y} 的分布函数的求法,其中X,Y 相互独立,且各自的分布函数Fx(x) 与 Fy(y) 那么有 F max(z) = Fx(x) * Fy(y) Fmin(z) = 1- (1-Fx(x))*(1-Fy(y))
    对于上面的情况可以推广到 n 各相互独立的随机变量 ,都可以成立
  • 最主要的是要分清,到底式子的形式是概率密度还是分布函数

条件概率

max 与 min 函数的相关计算

  • 0.84 0.16

二维随机变量

  • 对于开始的未知数的求解:分布函数的整体为1
  • (1)对于X,Y 的确切的值的,就在相对应的面积范围内求解
  • (2)对于边缘分布的,一方为给出的范围,另一方则为全部范围
  • (3)像下面的第四题,其实的真正的目的,就是给x,y 一个更加具体的一个范围进行求解


二维随机变量求边缘概率密度

  • 以下面的第二问为例子:当你求x 的边缘概率密度时,你要把x 当作一个已经已知范围的一个常量,实际上y 才是你的变量,这就好比你其实是在求一条线(每当x 确定的时候),所以在求积分的上下限的时候,这时得到的应该是变量y 关于 x 的范围 , 也就是[x^2 , 1] ,当你求y 的概率密度的时候,y 就变成了常量,积分的上下限应该是变量x 关于常量 y 的一个范围,也就是[ - 根号 y, 根号y ]

独立性

  • 对于独立性的证明,就按照定义来即可,分布函数或者概率密度都可以


  • 简单的分析:由一开始的独立性,得出f(x,y),对于后面的z ,其实 z 的取值范围已经给出,所谓的求分布律就是让你求相对应的概率,这个概率也就是f(x,y) 相对应的概率

Z = X + Y

  • 卷积的两种方法都是等价的,不过下面的第一种方法相对来说更加简单,计算以及运算的过程在于你的选择
  • 利用公式来求,同样地,与求边缘概率密度一样,这里将z 看成常量,x 和 y 是看成以 z 为变量的一个函数,有时候是要进行分段进行一个计算
  • 并不建议一个大括号直接运算完成,而是以z 的范围作为分隔,一个个进行计算


max{X,Y}

  • 注意最后的时候的变量都替换成u 了


离散二维随机变量的条件概率以及max 与min

  • 在离散随机变量中,条件概率的理解 p{X = 2| Y = 2} 由于是在Y = 2 的条件下,那么就要将Y = 2 的全部情况算进去(不止一个x) ,但是X = 2 的话,就只是一个x ,同理是可以类推到连续的随机变量的
  • 对于离散型的max 与min 的话,不如直接列举进行一个计算,连续型才用公式

随机变量的数字特征

  • (1) 懂得离散型随机变量与连续型随机变量的期望的求法
  • (2)随机变量的函数的数学期望:对于离散型,直接将每个取值代入函数,得到新的取值,再和相对应的概率相乘再相加即可;对于连续型随机变量,直接对g(x)f(x) 进行积分 ,(区别于f(x) 自身的期望, xf(x) 的积分
  • (3)对于二维的随机变量:对于离散型,就是相对应的取值乘概率后相加;对于连续型就变成 对g(x,y)f(x,y) 的一个求积分的过程
  • (4) 注意期望的相关计算的公式:E(x+y) = E(x) + E(y) 这个在任何情况下都是成立的 (减号也是一样) E(XY) = E(X)E(Y) 当X,Y 相互独立的时候成立 (这两个公式均可以推广)
  • (5)方差 D(x) = E{[X-E(X)]^2} ,就是每一个取值与期望的差的平方的期望,它的算数平方根为均方差
    当计算离散随机变量的时候,[X-E(X)]^2 乘相对应的概率再求和即可; 连续型的时候 [X-E(X)] ^2 乘f(x) 的积分
  • 由于计算方差难度问题,常常用 D(X) = E(X^2) - [E(X)]^2 来计算
  • 方差的相关性质:常数的方差为0, D(cX) = c^2 D(X) D(C+ X) = D(X)
    D(X+Y ) = D(X) + D(Y) + 2E{(X-E(x))(Y-E(y))}
    D(X-Y ) = D(X) + D(Y) - 2E{(X-E(x))(Y-E(y))}
    当X ,Y 相互独立的时候,D(X+Y) = D(X-Y) = D(X) + D(Y)
  • 标准化的随机变量,就是 X- E(X) / 均方差
  • 协方差 Cov(X,Y) = E{(X-E(x))(Y-E(y))} 相关系数 = Cov(X,Y) /X 的均方差乘Y的均方差
  • 协方差可以写成 Cov(X,Y) = E(XY) - E(X)E(Y)
  • 协方差的相关性质 Cov(aX,bY) = abCov(X,Y) Cov(X1+X2,Y) = Cov(X1,Y) + Cov(X2+Y)
  • 相关系数 = 0 时,称为X 与 Y 不相关(就是X 与 Y 没有线性关系,但是可能会存在其他的关系)
  • 相互独立可以推出不相关,但是不相关推不出相互独立, 不相关 与 相关系数 = 0,Cov(X,Y) =0 E(XY) = E(X)E(Y)
  • 对于二维正态随机变量的相互独立与不相关的条件是相互等价的
  • 矩、协方差矩:分清k 阶原点矩,k 阶中心距,k+l 阶混合矩 k + l 阶混合中心矩
  • 切比雪夫不等式给出了再随机变量X 的分布未知,只知道E(X) 与D(X) 的情况下,对E{|X-E(X)|<=m} 概率的下限的估计

泰勒展开式与期望方差的结合




  • 通过泰勒公式以及积分和相对应的求导就可以算出期望,但是要注意n 的相对应的取值的范围

相互独立与期望方差的计算



  • 相互独立的时候是好计算方差与期望的,但是已知相关系数(包括不相关的时候)的方差的计算的方式与独立的时候的计算的方法是不一样的,还要加或者减去2倍的协方差,具体的协方差的计算: 以上面的例子,Cov(5X-Y) ,就是5Cov(X,Y) ,至于E(X+Y) = E(X) + E(Y) 的运算是在任何情况下都成立的

判断两个随机变量是否是相互独立与相关

  • 对于判断两个随机变量是否是独立的,只能通过分布律(概率密度)或者分布函数来判断,但是要是两者之间存在函数关系,则一定不是独立的,而对于不相关的判定,只能通过Cov(X,Y) = E(XY) + E(X)E(Y) 来计算Cov(X,Y)来判断Cov(X,Y) 是否等于0来判断
  • 对于E(X) 的求解 是对fx(x) 进行求积分得到的,E(Y) 的求解 是对fy(y) 求积分得到的


二维离散型的随机变量的独立性与相关性

  • 注意求是否独立的时候,一般找到一个反例就可以证明不是独立的,可是要证明是独立的话,要一个个证明都成立,至于证明相关性时,求E(X) 与 E(Y) 与E(XY) ,就要分开来求,至于E(XY) 的话,是xiyj*相对应的概率 再求和

由联合概率密度直接求期望,方差,协方差等

  • 注意在求期望的E(X) 的时候,不能少了原来的那个x , E(Y) 也是一样,我们可以看到,当你的f(x,y) 的形式并不复杂的时候,我们常常直接对联合密度进行积分,得到E(X^2) 再来计算 D(X) ,很少用方差的定义去算的

大数定律以及中心极限定理

  • (1)大数定理是叙述随机变量序列的前一项的算术平均值在某种情况下收敛到这些项的均值的算术平均值
    *(2)中心极限定理则是确定在什么条件下,大量随机变量之和的分布逼近正态分布
  • 由伯努利大数定理的结果表明,当你的试验的次数很大时,便可以用事件的频率来代替事件的概率
  • 辛钦大数定理表明,对于独立同分布且具有均值u ,当n 很大的时候,随机变量的算数平均很可能接近 u
  • 客观实际中,许多实际变量,由大量相互独立的随机因素形成,每一个因素的作用很小,这些随机变量往往服从正态分布
  • 对于独立同分布的大数定理:是有两种的表现形式的
  • 李雅普诺夫定理表明,无论各个随机变量满足什么定理,当n 很大的时候, Xk 的求和 近似服从正态分布
  • li莫弗拉普拉斯定理表明,当n 足够大时,二项分布近似于 正态分布


样本以及抽样分布

*(1)总体:试验可能的全部的观察值 个体:每一个可能的观察值 容量:个体的个数

*(2)样本:对总体进行独立的随机抽样 X1,X2 等 它们的观察值被称为 x1,x2 样本值

*(3)由于X1,X2,X3 等都是F 的相互独立的一个样本,那么它们共同的分布函数就是F(Xi) 的乘积,它们的概率密度就是各自的概率密度的乘积

  • 直方图的构建:总区间划分为小区间,小区间的端点值称为组限,小区间的长度几位 d ,d 为组距,数据落在每个小区间的个数叫为 频数 , 每个直方图是以 频数/(总样本数*d) 作为高度的,直方图的面积就是频率
  • 箱线图:学会求样本的p 分位数,
    (1)当 np 不是整数的时候,x([np] + 1) 就是p 分位数 (只有一个)
    (2)当np 是整数的时候,1/2(Xnp + Xnp+1 ) 是p 分位数 (求平均值)
    当p 为0.5 时,称为样本的中位数,当n 为奇数,样本的中位数就是中间的数,偶数就是中间的两个的平均值
    0.25分位被称为第一四分位数,0.75 被称为第三四分位数
  • g(X1,X2,Xn) 为一统计量,g(x1,x2,xn) 是前者的观察值
  • 经验分布函数:对任意的实数 x ,当n 趋于无穷的时候,Fn(x) 以概率1 趋近于 分布函数F(x)
  • 统计量的分布:
相关推荐
2302_7969847420 小时前
概率论基础知识点公式汇总
概率论
项目申报小狂人20 小时前
广义正态分布优化算法(GNDO)Generalized Normal Distribution Optimization
算法·概率论
2302_7969847420 小时前
概率论基础
概率论
感谢地心引力1 天前
【数据分析】层次贝叶斯
机器学习·数据分析·概率论
Mount2561 天前
【数理统计】极限定理及抽样分布
概率论
勤劳的进取家1 天前
多维高斯分布
人工智能·机器学习·概率论
公众号Codewar原创作者2 天前
R机器学习:朴素贝叶斯算法的理解与实操
人工智能·机器学习·概率论
orion-orion2 天前
概率论沉思录:初等假设检验
人工智能·概率论·科学哲学
Mount2562 天前
【数理统计】参数估计
概率论
Trouvaille ~4 天前
【机器学习】解构概率,重构世界:贝叶斯定理与智能世界的暗语
人工智能·python·深度学习·神经网络·机器学习·ai·概率论