一个概率论例题引发的思考

浙江大学版《概率论与数理统计》一书,第13章第1节例2:

这个解释和模型比较简单易懂。

接下来,第13章第2节的例2也跟此模型相关:

在我自己的理解中,此题的解法跟上一个题目一样,其概率如下面的二维矩阵,第二级传输也就是n为2,矩阵一共有4中可能的概率,求其期望值,即求所有概率及值之积的和。

{ p n q n q n p n } \begin {Bmatrix} p^n & q^n \\ q^n & p^n \end{Bmatrix} {pnqnqnpn}

然而,仔细考虑之后发现不妥。因为最后结果的概率,这样计算不太合适,但是又没有发现更合理的理论和方法。

继续搜看教材,看到这一节的如下论述:

似乎抓到了什么,但是又特别模糊。

再看一下C-K方程:

因此,参考此文:https://blog.csdn.net/m0_37567738/article/details/132182007?spm=1001.2014.3001.5502可以得出结论,此种题目的解题方法还是要回到马尔可夫概率转移矩阵中去找答案。

我觉得要理解此题目的底层逻辑,还需要了解以下公式:

P { X n = a n } = ∑ i = 1 + ∞ P { X n = a n , X 0 = a i } = ∑ i = 1 + ∞ P { X n = a n ∣ X 0 = a i } P { X 0 = a i } = ∑ i = 1 + ∞ P i ( 0 ) P i j ( n ) = ∑ i = 1 + ∞ P i 1 ( 1 ) P i j ( n − 1 ) = ∑ i = 1 + ∞ P 2 i ( 2 ) P i j ( n − 2 ) = ∑ i = 1 + ∞ P 3 i ( 3 ) P i j ( n − 3 ) = . . . . . . P \{X_n = a_n\} = \sum_{i = 1}^{+\infty} P\{ X_n = a_n, X_0 = a_i \} = \\ \sum_{i = 1}^{+\infty} P\{ X_n = a_n|X_0 = a_i \} P\{ X_0 = a_i \}=\sum_{i=1}^{+\infty} P_i(0) P_{ij}(n) = \\ \sum_{i=1}^{+\infty} P_{i1}(1) P_{ij}(n-1)= \sum_{i=1}^{+\infty} P_{2i}(2) P_{ij}(n-2) = \sum_{i=1}^{+\infty} P_{3i}(3) P_{ij}(n-3) = ...... \\ P{Xn=an}=i=1∑+∞P{Xn=an,X0=ai}=i=1∑+∞P{Xn=an∣X0=ai}P{X0=ai}=i=1∑+∞Pi(0)Pij(n)=i=1∑+∞Pi1(1)Pij(n−1)=i=1∑+∞P2i(2)Pij(n−2)=i=1∑+∞P3i(3)Pij(n−3)=......

这个逻辑的本质区别就在于,它是利用后验概率去推算先验概率,这是一种理论上的优越性。

我们想要求解的概率P,它依赖于其概率矩阵的乘法运算,而不是矩阵中4个转换概率的期望值。

相关推荐
q5673152310 小时前
如何在Django中创建新的模型实例
数据库·python·线性代数·django·sqlite
jianglq13 小时前
C++高性能线性代数库Armadillo入门
c++·线性代数
高山莫衣15 小时前
术语“in law”(在分布上)
概率论
loongloongz15 小时前
联合条件概率 以及在语言模型中的应用
人工智能·语言模型·自然语言处理·概率论
痛&快乐着1 天前
线性代数之QR分解和SVD分解
线性代数
luthane1 天前
python 实现entropy熵算法
python·算法·概率论
sz66cm2 天前
数学基础 -- 线性代数之奇异值
人工智能·线性代数·机器学习
deephub2 天前
概率分布深度解析:PMF、PDF和CDF的技术指南
人工智能·python·机器学习·pdf·概率论
xosg2 天前
几何概率模型
概率论
985小水博一枚呀3 天前
【混淆矩阵】Confusion Matrix!定量评价的基础!如何计算全面、准确的定量指标去衡量模型分类的好坏??
人工智能·python·深度学习·线性代数·矩阵·分类·cnn