• 隐马尔可夫模型拼音汉字输入法


     隐马尔科夫模型

    隐马尔可夫模型 (Hidden Markov Model) 是一种统计模型,用来描述一个含有隐含未知参数的马尔可夫过程。其难点是从可观察的参数中确定该过程的隐含参数,然后利用这些参数来作进一步的分析。

    拼音输入法中可观察的参数就是拼音,隐含的参数就是对应的汉字。

    那么我们要解决的就是隐马尔可夫的第二个问题:由观察序列求最优的隐藏序列

    只需要HMM的三个要素(π,A,B)

    参考别人github代码:

    https://github.com/LiuRoy/Pinyin_Demo

    代码解析如下:

    1、模型生成

    代码见train/main.py文件,里面的initstarting,initemission,init_transition分别对应于生成隐马尔科夫模型中的初始概率矩阵发射概率矩阵转移概率矩阵,并把生成的结果写入sqlite文件中。

    训练用到的数据集是结巴分词里的词库,因为没有训练长句子,最后运行的结果也证明只能适用于短句输入。

    2、初始概率矩阵(π)

    统计初始化概率矩阵,就是找出所有出现在词首的汉字,并统计它们出现在词首的次数,最后根据上述数据算出这些汉字出现在词首的概率,没统计的汉字就认为出现在词首的概率是0,不写入数据库。有一点注意的是为了防止概率计算的时候因为越算越小导致计算机无法比较,所有的概率都进行了自然对数运算。统计的结果如下:

     

    3、转移概率矩阵(A)

    此处用到的是最简单的一阶隐马尔科夫模型,即认为在一个句子里,每个汉字的出现只和它前面的的一个汉字有关,虽然简单粗暴,但已经可以满足大部分情况。统计的过程就是找出字典中每个汉字后面出现的汉字集合,并统计概率。因为这个概率矩阵非常的大,逐条数据写入数据库过慢,后续可以优化为批量写入,提高训练效率。结果如下:

     

    上图展示的一后面出现概率最高的十个字,也挺符合日常习惯。

    4、发射概率矩阵(B)

    通俗点就是统计每个汉字对应的拼音以及在日常情况下的使用概率,已暴举例,它有两个读音:bao和pu,难点就是找bao和pu出现的概率。此处统计用到了pypinyin模块,把字典中的短语转换为拼音后进行概率统计,但是某些地方读音也不完全正确,最后运行的输入法会出现和拼音不匹配的结果。统计结果如下:

    5、viterbi算法实现:

    代码建input_method/viterbi.py文件,此处会找到最多十个局部最优解,注意是十个局部最优解而不是十个全局最优解,但是这十个解中最优的那个是全局最优解,代码如下:

    6、结果展示

    运行input_method/viterbi.py文件,简单的展示一下运行结果:

    问题统计:

    1. 统计字典生成转移矩阵写入数据库的速度太慢,运行一次要将近十分钟。
    2. 发射概率矩阵数据不准确,总有一些汉字的拼音不匹配。
    3. 训练集太小,实现的输入法不适用于长句子。

     别人训练好的 hmm 拼音输入法代码:

    本博客摘抄如下博客:

    https://github.com/THUzhangga/HMM_shurufa

    https://github.com/LiuRoy/Pinyin_Demo

  • 相关阅读:
    六.初识Mybatis
    python中文资源大全
    阅读《乌云回忆录一》后的一点感慨
    SSH无法连上CentOS7的问题
    [转]sqlmap使用教程
    [转]11种常见sqlmap使用方法详解
    ZVulDrill渗透环境搭建及部分题目writeup
    渗透资源大全-整理
    【洛谷5934】[清华集训2012] 最小生成树(最小割)
    【洛谷3974】[TJOI2015] 组合数学(模拟最大流)
  • 原文地址:https://www.cnblogs.com/lovychen/p/9760447.html
Copyright © 2020-2023  润新知