• 隐马尔可夫模型


    隐马尔可夫模型

    马尔可夫性质:存在一个状态序列,未来的状态只与当前的状态相关,而不与历史状态相关

    以每天的天气为例,明天的天气只与今天的天气相关,不与昨天、前天的天气相关。

    马尔可夫过程:一个具备了马尔可夫性质的随机过程,与马尔可夫链的概念较像

    隐马尔可夫模型:含有隐含参数的马尔可夫过程,包含两个等长的序列,观测序列和隐含序列。

    两个假设

    1、马尔可夫假设

    隐含序列的每一个状态,只与上一个状态相关。

    2、独立输出假设

    每一时刻的观测状态,仅与当前时刻的隐含状态相关。

    案例

    构建一个案例(来自维基百科),假设你有一个住得很远的朋友,他每天跟你打电话告诉你他每天做了什么。他每天只可能做四种事中的一种:散步、打球、购物以及打扫房间。他选择做什么事情只凭天气,每天的天气只有三种,雨、晴、阴。但你不知道他所在地区的天气,只知道他每天做的事情。假如天气序列是一个马尔可夫链,那么天气的序列和他做的事情序列就构成了隐马尔可夫模型

    模型参数

    画图说明

    (N) 表示隐含状态的种类数,每天天气的种类数 3,(M) 表示观测状态的种类数,即每天做的事情的种类数 4

    (a_{ij}in R^{N*N}): 表示隐含状态之间的转移概率,天气 — 天气的转移概率

    (b_{ij}in R^{N*M}): 表示每一个隐含状态到观测状态的输出概率,天气 — 做的事情的概率

    (pi_i in R^N): 表示作为隐含序列第一个状态的概率,即第一天是某种天气的概率

    下文以 ( heta=(a, b, pi)) 表示模型参数

    三个问题

    1、概率计算

    已知模型参数和特定的观测序列,求各个时刻每个隐含状态的概率分布。即某个时刻是某种隐含状态的概率。

    前向、后向算法

    2、学习 / 训练

    已知观测序列,求模型参数

    有监督:统计概率

    无监督:基于EM算法的思想,利用前向和后向算法迭代求解

    3、预测

    已知模型参数和观测序列,求最可能产生该观测序列的隐含序列

    基于动态规划思想的维特比算法

    概率计算

    前向过程

    定义 (alpha_{t}(i)=P(Y_1=y_1, Y_2 = y_2, ...Y_t=y_t, X_t=i| heta)) 是在已知参数 ( heta) 的条件下,观测序列是 (y_1,y_2,...y_t),时刻 (t) 的隐含状态是 (i) 的概率。可以递归计算

    1. (alpha_1(i)=pi_ib_{iy_1})
    2. (alpha_{t+1}(i)=b_{iy_{t+1}}displaystyle sum_{j=1}^{N}{alpha_t(j)a_{ji}})

    针对每一个时刻(t,tin[1, T]),每一个状态 (i, iin[1, N]),都可以计算出 (alpha_t(i))。( (N) 代表隐含状态的种类数)

    后向过程

    类似,定义 (eta_t(i)=P(Y_{t+1} = y_{t+1}, ..., Y_T = y_T|X_t=i, heta)) 是在已知参数 ( heta) ,时刻 (t) 的状态是 (i) 的条件下,余下观测部分是(y_{t+1}, ..., y_T) ,的概率

    1. (eta_T(i)=1)
    2. (eta_t(i)=displaystyle sum_{j=1}^{N}{eta_{t+1}(j)a_{ij}b_{jy_{t+1}}})

    同样,针对每一个时刻 (t, tin[1, T]) ,每一个状态 (i, iin[1, N]), 都可以计算出 (eta_t(i))

    问题解答

    在给定观测序列 (Y) 和参数 ( heta) 的情况下,在时间 (t) 状态是 (i) 的概率:

    [gamma_t(i)=P(X_t=i|Y, heta)=frac{P(X_t=i,Y| heta)}{P(Y| heta)}=frac{alpha_t(i)eta_t(i)}{sum_{j=1}^{N}{alpha_t(j)eta_t(j)}} ]

    中间参数

    在给定观测序列 (Y) 和参数 ( heta) 的情况下,在时间 (t) 状态是 (i) , 在时间 (t+1) 状态是 (j) 的概率:

    [xi_{t}(i,j)=P(X_t=i, X_{i+1}=j|Y, heta)=frac{P(X_t=i, X_{t+1}=j,Y| heta)}{P(T| heta)}=frac{alpha_t(i)a_{ij}eta_{t+1}(j)b_{jy_{t+1}}}{sum_{i=1}^{N}sum_{j=1}^{N}{alpha_t(i)a_{ij}eta_{t+1}(j)b_{jy_{t+1}}}} ]

    训练

    有监督

    已知训练集的隐含状态,直接进行概率统计

    1、转移概率 (a_{ij}) 的估计

    假设样本中时刻 (t) 处于状态 (i) 且时刻 (t+1) 处于状态 (j) 的频次为 (A_{ij}) ,那么 (a_{ij}) 的定义为

    [a_{ij}=frac{A_{ij}}{sum_{j=1}^{N}{A_{ij}}}, iin[1, n], jin[1, n] ]

    2、观测概率 (b_{jk}) 的估计

    假设样本中状态为 (j) 且观测为 (k) 的频次为 (B_{jk}) ,那么 (b_{jk}) 的估计为

    [b_{jk}=frac{B_{jk}}{sum_{k=1}^{M}{B_{jk}}}, jin[1, N], kin[1, M] ]

    3、发射概率的估计

    假设 隐含状态 (i) 作为隐含序列首状态的频次为 (C_i),那么 (pi_i) 的估计为

    [pi_i=frac{C_i}{sum_{i=1}^{N}{C_i}}, iin[1, N] ]

    基于有监督的统计估计出模型参数,解决第二个问题

    无监督

    无监督的最大期望算法

    对参数进行随机初始化,或者根据数据先验初始化,然后按照以下步骤迭代

    [pi_i=gamma_1(i) ]

    [a_{ij}=frac{sum_{t=1}^{T-1}{xi_{t}(i, j)}}{sum_{t=1}^{T-1}{gamma_t(i)}} ]

    [b_i(v_k)=frac{sum_{t=1}^{T}{1_{y_t=v_k}gamma_t(i)}}{sum_{t=1}^{T}gamma_t(i))}, 1_{y_t=v_k}=1 if y_t=v_k else 0 ]

    以上步骤根据EM算法进行推导,但直接理解的话也可

    预测

    维特比算法

    分词问题

    把文本当做观测序列,分词标注作为隐含序列,即可利用HMM进行分词任务

  • 相关阅读:
    POJ 2449 Remmarguts' Date(第k短路のA*算法)
    UESTC 1717 Journey(DFS+LCA)(Sichuan State Programming Contest 2012)
    HRBUST 1211 火车上的人数【数论解方程/模拟之枚举+递推】
    洛谷 P1372 又是毕业季I[数论/神坑规律题]
    洛谷 P1865 A % B Problem[筛素数/前缀和思想/区间质数个数]
    CCCC L2-003. 月饼[贪心/类似hdu贪心老鼠]
    二项式定理与杨辉三角
    Educational Codeforces Round 39 (Rated for Div. 2) B. Weird Subtraction Process[数论/欧几里得算法]
    洛谷 P1784 数独[DFS/回溯]
    Wannafly交流赛1 B 硬币[数学思维/贪心]
  • 原文地址:https://www.cnblogs.com/wa007/p/15064470.html
Copyright © 2020-2023  润新知