鞅与停时 - 一种特别的概率论问题

讨论一个有趣的概率问题:

P3334 [ZJOI2013\] 抛硬币 - 洛谷](https://www.luogu.com.cn/problem/P3334) 实际上是一个猴子打字问题,考虑一直无规律随即打字的猴子,键盘上只有A-Z一共26个字母,对于一个特定的字符串 S S S : `ABCABCAB` ,能否在有限的打字次数后精确得到这个字符串。 所需的打字次数的期望是有限的,但是打字次数是呈指数增长的。 期望次数是 2 6 8 + 2 6 5 + 2 6 2 26\^8+26\^5+26\^2 268+265+262 (与前后缀相同 (border) 的长度有关系) 一个巧妙的证明可以用 **停时与鞅的性质** 来完成。 首先介绍**停时** 的概念:停时,通俗而言,一个事件停止的时间,并且这个事件停止的时间只依赖于停止之前的所有状态。形式上,停时是一个随机变量 τ \\tau τ,指的是对于任意的时间 t ∈ I t\\in I t∈I ,满足 { τ ≤ t } ∈ F t \\{\\tau\\leq t\\} \\in F_t {τ≤t}∈Ft ,即对于任意时间 t t t ,任意在 t t t 之前停止的事件 { τ ≤ t } \\{\\tau \\leq t\\} {τ≤t} 只依赖于 t t t 之前的状态( F t F_t Ft 即为在 t t t 之前发生的所有事件的集合,也就是所有 t t t 之前发生的状态)。 用 T T T 表示猴子得到目标字符串所需要的时间。 例如字符串一匹配完我们就停止,那么这个事件的停止时间只依赖于停止之前的所有状态(所打的字符),而不依赖于停止之后的所有状态(还没有打的字符),那么就说明这个停止时间 τ \\tau τ 是一个停时 ( stopping time/optinal time \\text{stopping time/optinal time} stopping time/optinal time) 。 停时具有很好的性质,利用可选停止定理来得到停时的期望,具体是构造一个公平赌博。 假设存在无数个赌徒,当猴子**每** 打出一个字符前的一瞬间,一个赌徒进场并投注 1 1 1 元给 S 1 S_1 S1 ,假如中了就翻 26 倍,投给 S 2 S_2 S2 ... 直到字符串完全匹配为止或者出现失配情况。并且我们假设赌场在遇到目标字符串马上关闭赌场,这个时间为 T T T ,显然 T T T 是一个停时。 可以发现, T T T 时刻赌徒们的带入赌资一共为 T T T 元,带出的钱一共是 2 6 8 + 2 6 5 + 2 6 2 26\^8+26\^5+26\^2 268+265+262 。 为什么?因为一共只有三个人能赢钱出去,其中有一个人大赢,另外两个人赢到一半赌场就关闭了,(注意这个长字符串的后缀是特定字符串 S S S,所以只有特定字符串中前后缀相同的长度可以赢钱,其他人都是输光走人) 由于是公平赌场,当这个 T T T 是停时的时候,可以用鞅的性质和可选停止定理来证明,带入赌资的期望和带出的钱的期望是相等的。也就是 T T T 的期望是 2 6 8 + 2 6 5 + 2 6 2 26\^8+26\^5+26\^2 268+265+262 。具体可以参考 [鞅](https://zh.wikipedia.org/wiki/%E9%9E%85_%28%E6%A6%82%E7%8E%87%E8%AE%BA%29) 。 那么我们也很容易可以完成类似的题目,只要产生字符的概率是独立的,且产生相同字符的概率是相等的,就可以用所有 border \\text{border} border 的概率积的倒数之和来算出产生该字符串的期望。

相关推荐
西猫雷婶1 天前
scikit-learn/sklearn学习|广义线性回归损失函数的基本表达式
深度学习·神经网络·学习·机器学习·线性回归·scikit-learn·概率论
xz2024102****3 天前
最大似然估计:损失函数的底层数学原理
人工智能·算法·机器学习·概率论
kingmax542120083 天前
概率与数理统计公式及结论汇总
人工智能·机器学习·概率论
西猫雷婶4 天前
神经网络|(十九)概率论基础知识-伽马函数·下
人工智能·深度学习·神经网络·机器学习·回归·scikit-learn·概率论
西猫雷婶7 天前
神经网络|(十八)概率论基础知识-伽马函数溯源-阶乘的积分表达式
人工智能·深度学习·神经网络·机器学习·概率论
西猫雷婶11 天前
神经网络|(十六)概率论基础知识-伽马函数·中
人工智能·深度学习·神经网络·学习·机器学习·概率论
西西弗Sisyphus11 天前
大模型 多轮对话
语言模型·概率论·知识蒸馏
Jooou12 天前
机器学习:贝叶斯派和频率派
机器学习·概率论·贝叶斯派
simon_skywalker15 天前
概率论基础教程第六章 随机变量的联合分布(二)
概率论
simon_skywalker16 天前
概率论基础教程第5章 连续型随机变量(三)
概率论