• 中文分词(统计语言模型)


    一般来讲,根据不同应用,汉语分词的颗粒度大小应该不同。比如,在机器翻译中,颗粒度应该大一些,“北京大学”就不能被分成两个词。而在语音识别中,“北京大学”一般是被分成两个词。因此,不同的应用,应该有不同的分词系统。

    利用统计语言模型分词的方法,可以用几个数学公式简单概括如下:
    我们假定一个句子S可以有几种分词方法,为了简单起见我们假定有以下三种:
    A1, A2, A3, ..., Ak,
    B1, B2, B3, ..., Bm
    C1, C2, C3, ..., Cn

    其中,A1, A2, B1, B2, C1, C2 等等都是汉语的词。那么最好的一种分词方法应该保证分完词后这个句子出现的概率最大。也就是说如果 A1,A2,..., Ak 是最好的分法,那么 (P 表示概率):
    P (A1, A2, A3, ..., Ak) 〉 P (B1, B2, B3, ..., Bm), 并且
    P (A1, A2, A3, ..., Ak) 〉 P(C1, C2, C3, ..., Cn)
    因此,只要我们利用上回提到的统计语言模型计算出每种分词后句子出现的概率,并找出其中概率最大的,我们就能够找到最好的分词方法。

    当然,这里面有一个实现的技巧。如果我们穷举所有可能的分词方法并计算出每种可能性下句子的概率,那么计算量是相当大的。因此,我们可以把它看成是一个动态规划(Dynamic Programming) 的问题,并利用 “维特比”(Viterbi) 算法快速地找到最佳分词。

    也许你想不到,中文分词的方法也被应用到英语处理,主要是手写体识别中。因为在识别手写体时,单词之间的空格就不很清楚了。中文分词方法可以帮助判别英语单词的边界。其实,语言处理的许多数学方法通用的和具体的语言无关。在 Google 内,我们在设计语言处理的算法时,都会考虑它是否能很容易地适用于各种自然语言。这样,我们才能有效地支持上百种语言的搜索。

    中文分词要读的文献:

    1. 梁南元
    书面汉语自动分词系统
    http://www.touchwrite.com/demo/LiangNanyuan-JCIP-1987.pdf

    2. 郭进
    统计语言模型和汉语音字转换的一些新结果
    http://www.touchwrite.com/demo/GuoJin-JCIP-1993.pdf

    3. 郭进
    Critical Tokenization and its Properties
    http://acl.ldc.upenn.edu/J/J97/J97-4004.pdf

    4. 孙茂松
    Chinese word segmentation without using lexicon and hand-crafted training data
    http://portal.acm.org/citation.cfm?coll=GUIDE&dl=GUIDE&id=980775

    参考文献:http://www.kuqin.com/math/20071204/2776.html

  • 相关阅读:
    发布新闻
    下拉列表联动显示(Car表) 三级联动
    下拉列表联动显示(中国省市)三级联动
    MVC——数据库增删改查(Razor)——Html语法
    MVC——数据库增删改查(Razor)
    MVC——数据库增删改查(aspx)
    ASP.NET MVC 4 (五) 视图
    ASP.NET MVC 4 (四) 控制器扩展
    ASP.NET MVC 4 (三) 过滤器
    ASP.NET MVC 4 (二)控制器
  • 原文地址:https://www.cnblogs.com/tuzhiye/p/1376700.html
Copyright © 2020-2023  润新知