隐马尔科夫模型|前向算法|Viterbi 算法

隐马尔可夫模型 (Hidden Markov Model, HMM)

HMM 是一种统计模型,用于表示由一个隐藏的马尔可夫链生成的观测序列。它假设每个观测值依赖于当前的隐藏状态,并且隐藏状态之间的转换遵循马尔可夫性质(即未来的状态仅依赖于当前状态,而不受过去状态的影响)。HMM 通常包含以下三个基本元素:

  1. 状态集合 (S = {s_1, s_2, ..., s_N}):N 个可能的隐藏状态。
  2. 观测集合 (V = {v_1, v_2, ..., v_M}):M 个可能的观测值。
  3. 参数集合 (λ = (A, B, π)),其中:
    • (A) 是状态转移概率矩阵,(a_{ij} = P(q_t = s_j | q_{t-1} = s_i))
    • (B) 是观测概率矩阵,(b_j(o_t) = P(o_t | q_t = s_j))
    • (π) 是初始状态概率向量,(π_i = P(q_1 = s_i))

前向算法 (Forward Algorithm)

目标

计算给定观测序列 (O = (o_1, o_2, ..., o_T)) 的出现概率 (P(O|λ))。

动态规划过程

定义前向变量 (\alpha_t(i)) 表示在时刻 t 观测到 (o_1, o_2, ..., o_t) 并处于状态 (s_i) 的所有路径的概率总和。其递推公式为:

  • 初始化:(\alpha_1(i) = π_i b_i(o_1)),对于所有的 (i = 1, 2, ..., N)
  • 递推:(\alpha_{t+1}(j) = [\sum_{i=1}^{N} \alpha_t(i) a_{ij}] b_j(o_{t+1})),对于所有的 (j = 1, 2, ..., N)
  • 终止:(P(O|λ) = \sum_{i=1}^{N} \alpha_T(i))
特点
  • 关注所有可能的状态路径,因此计算的是所有路径概率的总和。
  • 适用于评估观测序列的可能性,常用于模型训练阶段来调整 HMM 参数。

Viterbi 算法 (Viterbi Algorithm)

目标

寻找给定观测序列 (O = (o_1, o_2, ..., o_T)) 下最可能的状态序列 (Q^* = (q_1^, q_2^, ..., q_T^*))。

动态规划过程

定义 Viterbi 变量 (\delta_t(i)) 表示在时刻 t 观测到 (o_1, o_2, ..., o_t) 并处于状态 (s_i) 的最大概率路径的概率。同时定义回溯指针 (\psi_t(i)) 指向前一时刻最优路径来自的状态。递推公式如下:

  • 初始化:(\delta_1(i) = π_i b_i(o_1)),对于所有的 (i = 1, 2, ..., N)
  • 递推:(\delta_{t+1}(j) = \max_{1 \leq i \leq N}[\delta_t(i) a_{ij}] b_j(o_{t+1})),对于所有的 (j = 1, 2, ..., N);同时 (\psi_{t+1}(j) = \arg\max_{1 \leq i \leq N}[\delta_t(i) a_{ij}])
  • 终止:(P^* = \max_{1 \leq i \leq N} \delta_T(i)),并且 (q_T^* = \arg\max_{1 \leq i \leq N} \delta_T(i))
  • 回溯:从 (q_T^) 开始,通过回溯指针 (\psi_t) 找到整个最可能的状态序列 (Q^)
特点
  • 关注最优路径,因此计算的是最大值,而非所有路径概率的总和。
  • 不仅可以找到最可能的状态序列,还可以用于解码任务,例如语音识别或自然语言处理中的词性标注。

实际应用中的差异

  • 前向算法 主要用于评估(Evaluation),即计算观测序列的可能性。它可以帮助我们了解某个观测序列是否符合特定的 HMM 模型,这对于模型的选择和验证非常重要。
  • Viterbi 算法 则用于解码(Decoding),即确定最可能的状态序列。这在许多实际应用中非常有用,如语音识别、基因序列分析等,因为我们需要知道隐藏状态的实际变化以进行进一步分析或决策。

总结

尽管 Viterbi 算法和前向算法都使用了动态规划的思想来有效地解决原本复杂度极高的问题,但它们的应用场景和目标不同。前向算法侧重于评估观测序列的概率,而 Viterbi 算法则致力于找出最有可能的状态序列。理解这两种算法的区别及其具体实现,对于正确选择和应用 HMM 至关重要。

相关推荐
小天才才1 分钟前
前沿论文汇总(机器学习/深度学习/大模型/搜广推/自然语言处理)
人工智能·深度学习·机器学习·自然语言处理
新加坡内哥谈技术31 分钟前
Meta计划借助AI实现广告创作全自动化
运维·人工智能·自动化
西猫雷婶1 小时前
pytorch基本运算-导数和f-string
人工智能·pytorch·python
Johny_Zhao1 小时前
华为MAAS、阿里云PAI、亚马逊AWS SageMaker、微软Azure ML各大模型深度分析对比
linux·人工智能·ai·信息安全·云计算·系统运维
顽强卖力1 小时前
第二十八课:深度学习及pytorch简介
人工智能·pytorch·深度学习
述雾学java1 小时前
深入理解 transforms.Normalize():PyTorch 图像预处理中的关键一步
人工智能·pytorch·python
武子康1 小时前
大数据-276 Spark MLib - 基础介绍 机器学习算法 Bagging和Boosting区别 GBDT梯度提升树
大数据·人工智能·算法·机器学习·语言模型·spark-ml·boosting
要努力啊啊啊1 小时前
使用 Python + SQLAlchemy 创建知识库数据库(SQLite)—— 构建本地知识库系统的基础《一》
数据库·人工智能·python·深度学习·自然语言处理·sqlite
武子康1 小时前
大数据-277 Spark MLib - 基础介绍 机器学习算法 Gradient Boosting GBDT算法原理 高效实现
大数据·人工智能·算法·机器学习·ai·spark-ml·boosting
中杯可乐多加冰2 小时前
【解决方案-RAGFlow】RAGFlow显示Task is queued、 Microsoft Visual C++ 14.0 or greater is required.
人工智能·大模型·llm·rag·ragflow·deepseek