• 【机器学习】HMM模型原理及其实战


    隐马尔可夫模型(Hidden Markov Model,HMM)是统计模型,它用来描述一个含有隐含未知参数的马尔可夫过程。其难点是从可观察的参数中确定该过程的隐含参数。隐马尔可夫模型(HMM)可以用五个元素来描述,包括2个状态集合和3个概率矩阵:1. 隐含状态 S、2. 可观测状态 O、3. 初始状态概率矩阵 π、4. 隐含状态转移概率矩阵 A、5. 观测状态转移概率矩阵 B 。
    在这里插入图片描述

    马尔科夫链

    对于一个马尔可夫链来说,第n+1刻的状态只跟第n刻的状态有关,与第n-1,n-2,n-3,...等时刻的状态是没有任何关系的。

    隐马尔科夫模型

    对于上图,有两个行数据,这两列数据分布的特点,第一行是x行,第二行是o行,x行的某一个状态依赖于前一个状态,x行的每一个都指向o行其中的一个.

    对于上图,一般把x行称为状态序列,o行称为观测序列,状态序列和观测序列是什么?
    状态序列:隐藏的马尔科夫链随机生成的状态序列,称为状态序列。
    观测序列:每个状态生成一个观测,而由此产生的观测的随机序列,称为观测序列
    所以有马尔科夫模型定义:隐马尔可夫模型是一个关于时序的概率模型,它描述了一个由隐藏的马尔可夫链生成状态序列,再由状态序列生成观测序列的过程。其中,状态之间的转换以及观测序列和状态序列之间都存在一定的概率关系。

    HMM 表示

    设Q是所有可能的状态的集合,V是所有可能的观测的集合。

    Q=q1,q2,...,qN,V=v1,v2,...,vM
    其中,N是可能的状态数,M是可能的观测数。

    I是长度为T的状态序列,O是对应的观测序列。

    I=(i1,i2,...,iT),O=(o1,o2,...,oT)
    A是状态转移矩阵:A=[aij]N×N
    i=1,2,...,N;j=1,2,...,N
    其中,在时刻t,处于qi 状态的条件下在时刻t+1转移到状态qj 的概率:

    aij=P(it+1=qj|it=qi)
    B是观测概率矩阵:B=[bj(k)]N×M
    k=1,2,...,M;j=1,2,...,N
    其中,在时刻t处于状态qj 的条件下生成观测vk 的概率:

    bj(k)=P(ot=vk|it=qj)
    π是初始状态概率向量:π=(πi)
    其中,πi=P(i1=qi)
    隐马尔科夫模型由初始状态概率向量π、状态转移概率矩阵A和观测概率矩阵B决定。π和A决定状态序列,B决定观测序列。因此,隐马尔科夫模型λ可以由三元符号表示,即:λ=(A,B,π)。A,B,π称为隐马尔科夫模型的三要素。

    两个假设

    (1):设隐马尔科夫链在任意时刻t的状态只依赖于其前一时刻的状态,与其他时刻的状态及观测无关,也与时刻t无关。(齐次马尔科夫性假设)

    (2):假设任意时刻的观测只依赖于该时刻的马尔科夫链的状态,与其他观测和状态无关。(观测独立性假设)

    示例

    wiki上面有一个预测病人是否感冒的例子
    想象一个乡村诊所,村名的身体状况要么健康要么发烧,他们只有问诊所的医生的才能知道是否发烧。医生通过询问村名的感觉去诊断他们是否发烧。村民自身的感觉有正常、头晕或冷。
    假设一个病人每天来到诊所并告诉医生他的感觉。假设病人的健康状况是一个离散马尔可夫链。病人的状态有两种:健康和发烧,但医生不能直接观察到,这意味着状态对医生是不可见的。
    每天病人会告诉医生自己有以下几种由他的健康状态决定的感觉的一种:正常、冷或头晕。这些是观察结果。 整个系统为一个隐马尔可夫模型(HMM)。
    现状:医生知道村民的总体健康状况,还知道发烧和没发烧的病人通常会表明自己有什么症状。 换句话说,医生知道隐马尔可夫模型的参数。
    根据收集到的信息,得出以下的数据。
    病人的状态,也就是Q('Healthy', 'Fever')
    病人的感觉,即观测状态,也就是V:('normal', 'cold', 'dizzy')
    π是初始状态概率向量:{'Healthy': 0.6, 'Fever': 0.4}
    状态转移矩阵:

    transition_probability = {
       'Healthy' : {'Healthy': 0.7, 'Fever': 0.3},
       'Fever' : {'Healthy': 0.4, 'Fever': 0.6},
       }
    

    观测概率矩阵:

    emission_probability = {
       'Healthy' : {'normal': 0.5, 'cold': 0.4, 'dizzy': 0.1},
       'Fever' : {'normal': 0.1, 'cold': 0.3, 'dizzy': 0.6},
       }
    

    起始概率start_probability 表示病人第一次到访时医生认为其所处的HMM状态,他唯一知道的是病人倾向于是健康的。这里用到的特定概率分布不是均衡的,如转移概率大约是{'Healthy': 0.57, 'Fever': 0.43}。 转移概率transition_probability表示潜在的马尔可夫链中健康状态的变化。
    在这个例子中,当天健康的病人仅有30%的机会第二天会发烧。放射概率emission_probability表示每天病人感觉的可能性。假如他是健康的,50%会感觉正常。如果他发烧了,有60%的可能感觉到头晕。
    如图所示:
    在这里插入图片描述

    HMM的三个问题

    1:评估问题
    已知模型λ=(A,B,π) 和观测序列O=o1,o2,...,oT,计算在模型λ下某种观测序列O出现的概率P(O|λ)
    也就是HMM模型参数A,B,π已知。求病人出现一系列症状的概率?
    2:学习问题
    已知观测序列O=o1,o2,...,oT,估计模型参数λ=(A,B,π),使P(O|λ)最大。即用极大似然法的方法估计参数,采用EM思想、
    也就是通过病人表现的一系列的症状,估计出现这一系列症状的最佳模型参数。
    3:预测问题(解码问题)
    已知观测序列O=o1,o2,...,oT 和模型参数λ=(A,B,π),求给定观测序列条件概率P(I|O)最大的状态序列I=(i1,i2,...,iT),即给定观测序列,求最有可能的对应的状态序列。
    也就是通过观测V的状态链,去预测这几天病人是否有感冒等状态。

    维特比算法

    病人连续三天都去看医生,医生发现他这三天的感觉依次是:感觉正常,感觉冷,感觉头晕。医生想知道怎样的健康状态序列最能够解释这系列的观察结果。这个时候就需要用到维特比算法来解决这个问题。
    维特比算法代码

    def print_dptable(V):
        print "    ",
        for i in range(len(V)): print "%7d" % i,
        print
    
        for y in V[0].keys():
            print "%.5s: " % y,
            for t in range(len(V)):
                print "%.7s" % ("%f" % V[t][y]),
            print
    
    def viterbi(obs, states, start_p, trans_p, emit_p):
        V = [{}]
        path = {}
    
        # Initialize base cases (t == 0)
        for y in states:
            V[0][y] = start_p[y] * emit_p[y][obs[0]]
            path[y] = [y]
    
        # Run Viterbi for t > 0
        for t in range(1,len(obs)):
            V.append({})
            newpath = {}
    
            for y in states:
                (prob, state) = max([(V[t-1][y0] * trans_p[y0][y] * emit_p[y][obs[t]], y0) for y0 in states])
                V[t][y] = prob
                newpath[y] = path[state] + [y]
    
            # Don't need to remember the old paths
            path = newpath
    
        print_dptable(V)
        (prob, state) = max([(V[len(obs) - 1][y], y) for y in states])
        return (prob, path[state])
    

    对维特比的参数解释如下: obs 为观察结果序列, 例如 ['normal', 'cold', 'dizzy']; states 为一组隐含状态; start_p 为起始状态概率; trans_p 为转移概率; 而 emit_p 为放射概率。 为了简化代码,我们假设观察序列 obs 非空且 trans_p[i][j] 和 emit_p[i][j] 对所有状态 i,j 有定义。
    给出维特比的参数

    states = ('Healthy', 'Fever')
     
    observations = ('normal', 'cold', 'dizzy')
     
    start_probability = {'Healthy': 0.6, 'Fever': 0.4}
     
    transition_probability = {
       'Healthy' : {'Healthy': 0.7, 'Fever': 0.3},
       'Fever' : {'Healthy': 0.4, 'Fever': 0.6},
       }
     
    emission_probability = {
       'Healthy' : {'normal': 0.5, 'cold': 0.4, 'dizzy': 0.1},
       'Fever' : {'normal': 0.1, 'cold': 0.3, 'dizzy': 0.6},
       }
    

    求解

    def example():
        return viterbi(observations,
                       states,
                       start_probability,
                       transition_probability,
                       emission_probability)
    print example()
    

    总结

    维特比算法揭示了通过观察结果 ['normal', 'cold', 'dizzy'] ,找到最有可能由状态序列 ['Healthy', 'Healthy', 'Fever']产生。 换句话说,对于观察到的活动, 病人第一天感到正常,第二天感到冷时都是健康的,而第三天发烧了。
    维特比路径本质上是穿过格式结构的最长路径。 诊所例子的格式结构如下, 黑色加粗的是维特比路径:
    在这里插入图片描述

    你知道的越多,你不知道的越多。
  • 相关阅读:
    vscode配置c++以及美化插件
    自适应辛普森积分法
    [SDOI2014]数表
    [JSOI2009]等差数列
    MUI的踩坑笔记
    笔记:《吴恩达机器学习》——网易云课堂课程[绪论+单变量线性回归]
    CocoStuff—基于Deeplab训练数据的标定工具【五、训练成果分析】
    CocoStuff—基于Deeplab训练数据的标定工具【四、用该工具标定个人数据】
    CocoStuff—基于Deeplab训练数据的标定工具【三、标注工具的使用】
    CocoStuff—基于Deeplab训练数据的标定工具【二、用已提供的标注数据跑通项目】
  • 原文地址:https://www.cnblogs.com/zhangxinying/p/12071061.html
Copyright © 2020-2023  润新知