一个概率论例题引发的思考

浙江大学版《概率论与数理统计》一书,第13章第1节例2:

这个解释和模型比较简单易懂。

接下来,第13章第2节的例2也跟此模型相关:

在我自己的理解中,此题的解法跟上一个题目一样,其概率如下面的二维矩阵,第二级传输也就是n为2,矩阵一共有4中可能的概率,求其期望值,即求所有概率及值之积的和。

{ p n q n q n p n } \begin {Bmatrix} p^n & q^n \\ q^n & p^n \end{Bmatrix} {pnqnqnpn}

然而,仔细考虑之后发现不妥。因为最后结果的概率,这样计算不太合适,但是又没有发现更合理的理论和方法。

继续搜看教材,看到这一节的如下论述:

似乎抓到了什么,但是又特别模糊。

再看一下C-K方程:

因此,参考此文:https://blog.csdn.net/m0_37567738/article/details/132182007?spm=1001.2014.3001.5502可以得出结论,此种题目的解题方法还是要回到马尔可夫概率转移矩阵中去找答案。

我觉得要理解此题目的底层逻辑,还需要了解以下公式:

P { X n = a n } = ∑ i = 1 + ∞ P { X n = a n , X 0 = a i } = ∑ i = 1 + ∞ P { X n = a n ∣ X 0 = a i } P { X 0 = a i } = ∑ i = 1 + ∞ P i ( 0 ) P i j ( n ) = ∑ i = 1 + ∞ P i 1 ( 1 ) P i j ( n − 1 ) = ∑ i = 1 + ∞ P 2 i ( 2 ) P i j ( n − 2 ) = ∑ i = 1 + ∞ P 3 i ( 3 ) P i j ( n − 3 ) = . . . . . . P \{X_n = a_n\} = \sum_{i = 1}^{+\infty} P\{ X_n = a_n, X_0 = a_i \} = \\ \sum_{i = 1}^{+\infty} P\{ X_n = a_n|X_0 = a_i \} P\{ X_0 = a_i \}=\sum_{i=1}^{+\infty} P_i(0) P_{ij}(n) = \\ \sum_{i=1}^{+\infty} P_{i1}(1) P_{ij}(n-1)= \sum_{i=1}^{+\infty} P_{2i}(2) P_{ij}(n-2) = \sum_{i=1}^{+\infty} P_{3i}(3) P_{ij}(n-3) = ...... \\ P{Xn=an}=i=1∑+∞P{Xn=an,X0=ai}=i=1∑+∞P{Xn=an∣X0=ai}P{X0=ai}=i=1∑+∞Pi(0)Pij(n)=i=1∑+∞Pi1(1)Pij(n−1)=i=1∑+∞P2i(2)Pij(n−2)=i=1∑+∞P3i(3)Pij(n−3)=......

这个逻辑的本质区别就在于,它是利用后验概率去推算先验概率,这是一种理论上的优越性。

我们想要求解的概率P,它依赖于其概率矩阵的乘法运算,而不是矩阵中4个转换概率的期望值。

相关推荐
sysu637 小时前
74.搜索二维矩阵 python
开发语言·数据结构·python·线性代数·算法·leetcode·矩阵
正是读书时13 小时前
矩母函数(MGF)
概率论
Schwertlilien1 天前
模式识别-Ch3-贝叶斯估计
人工智能·机器学习·概率论
相醉为友2 天前
概率论常用的分布公式
概率论
阿隆ALong2 天前
亚矩阵云手机:软硬一体化的智能解决方案
线性代数·智能手机·矩阵
德华的神兜兜2 天前
【cuda学习日记】2.2 使用2维网络(grid)和2维块(block)对矩阵进行求和
学习·线性代数·矩阵
老板多放点香菜2 天前
DAY15 神经网络的参数和变量
人工智能·深度学习·神经网络·线性代数·机器学习·矩阵
L-李俊漩2 天前
多类特征(Multiple features)
人工智能·线性代数·机器学习·矩阵
余~~185381628003 天前
矩阵碰一碰发视频的视频剪辑功能源码搭建,支持OEM
线性代数
atwdy3 天前
【线性代数】通俗理解特征向量与特征值
线性代数·矩阵·特征值·特征向量