• PocketSphinx语音识别系统语言模型的训练和声学模型的改进


    PocketSphinx语音识别系统语言模型的训练和声学模型的改进

    zouxy09@qq.com

    http://blog.csdn.net/zouxy09

     

           关于语音识别的基础知识和sphinx的知识,详细能够參考我的另外两篇博文:

    语音识别的基础知识与CMUsphinx介绍:

    http://blog.csdn.net/zouxy09/article/details/7941585

    PocketSphinx语音识别系统的编译、安装和使用:

    http://blog.csdn.net/zouxy09/article/details/7942784

    以下的工作都是基于上面两篇博文往下做的,所以最好先了解下前面的情况。

     

    以下的过程參考CMU sphinxwiki

    http://cmusphinx.sourceforge.net/wiki/

     

    一、训练语言模型

           词与词之间存在着合乎句法与否的约束,语言模型就是用来表示这些约束的,它能够提供字与字之间的上下文信息和语义信息。在pocketsphinx语音识别系统时,採用了N-gram模型,即对训练音频文件所相应的文本文件进行统计,提取不同字词之间先后发生的统计关系。

           假设你的语言模型较小(比如小的语音指令集或者任务),并且是英文的,那就能够直接上CMU提供的网络server上面训练,假设较大的话,一般使用CMUclmtk语言模型工具来训练。以下分两种情况来介绍:

     

    1.1、利用在线工具建立语言模型

    1)创建一个语料库:

    语料库实际上就是一些文本的集合,包括了你须要识别的语音的文字的一些集合,比如句子啊,词啊等等。

    #vi corpus.txt

    输入例如以下内容:

    stop

    forward

    backward

    turn right

    turn left

    保存退出

    2)利用在线工具LMTool建立语言模型:

           进入网址:http://www.speech.cs.cmu.edu/tools/lmtool.html

    点击Browsebutton,选择之前创建的corpus.txt,最后点击COMPILE KNOWLEDGE BASE。这样就会生成字典文件* .dic 和语言模型文件 *.lm,比如:

    生成TAR2916.tar.gz

    tar xzf TAR2916.tar.gz

    2916.corpus 2916.lm 2916.sent.arpabo 2916.vocab

    2916.dic 2916.sent 2916.token

    真正实用的是.dic.lm的文件

    3)測试结果:

    pocketsphinx_continuous解码器用-lm选项来指定要载入的语言模型,-dict来指定要载入的字典。

    #pocketsphinx_continuous -lm 2916.lm -dict 2916.dic

    INFO: ngram_search_fwdflat.c(295): Utterance vocabulary contains 1 words

    INFO: ngram_search_fwdflat.c(912): 97 words recognized (2/fr)

    INFO: ngram_search_fwdflat.c(914): 2342 senones evaluated (38/fr)

    INFO: ngram_search_fwdflat.c(916): 1011 channels searched (16/fr)

    INFO: ngram_search_fwdflat.c(918): 167 words searched (2/fr)

    INFO: ngram_search_fwdflat.c(920): 47 word transitions (0/fr)

    WARNING: "ngram_search.c", line 1087: </s> not found in last frame, using <sil> instead

    INFO: ngram_search.c(1137): lattice start node <s>.0 end node <sil>.56

    INFO: ps_lattice.c(1228): Normalizer P(O) = alpha(<sil>:56:60) = -341653

    INFO: ps_lattice.c(1266): Joint P(O,S) = -341653 P(S|O) = 0

    000000000: STOP (-6531224)

    READY....

    Listening...

     

    1.2、训练大文本数据的语言模型

            我们通过语言模型训练工具CMUCLMTK统计大量文本数据得到以单个词建立的N-Gram模型。

    语言模型训练工具的说明见:

    http://www.speech.cs.cmu.edu/SLM/toolkit_documentation.html

    详细的过程例如以下:(得先安装语言模型训练工具CMUCLMTK,安装过程在上一博文中)

    1)准备训练的文本,也就是语料库:

            这里仅仅是举一个样例,所以语料库也不大,而一般的语料库都是由大文本来组成的,里面就是有一些我们的日经常使用语或者报纸啊,书啊等等所出现过的句子。文本数据越大,训练得到的语言模型就越好。

    #vi weather.txt

    .txt中输入例如以下内容,记住结尾不可留“ (实验证明了这一点)。每一个utterances <s> </s>来分隔

    <s> 天气 </s>

    <s> 有雨 </s>

    <s> 晴朗 </s>

    <s> 多云 </s>

    <s> 雷电 </s>

    wq 保存退出

    2)产生词汇表vocabulary文件:

    # text2wfreq < weather.txt | wfreq2vocab > weather.tmp.vocab

    命令text2wfreq统计文本文件里每一个词出现的次数,得到一个后缀为wfreq的文件,内容演示样例为:

    1334

    1334

    </s> 3680

    即表示词二、九和</s>在训练文本中出现的次数依次为133413343680

    命令wfreq2vocab统计文本文件里含有多少个词,即有哪些词。如数字识别中包括10个数字和两个静音,故共同拥有12个词,依照拼音顺序依次是:</s><s>、八、二、九、零、六、七、三、四、五、一。

    3)生成 arpa格式的语言模型:

    # text2idngram -vocab weather.vocab -idngram weather.idngram < weather.closed.txt

    #idngram2lm -vocab_type 0 -idngram weather.idngram -vocab weather.vocab -arpa weather.arpa

    命令text2idngram列举文本中出现的每一个n元语法。产生一个二进制文件,含有一个n元数组的数值排序列表,相应于与词有关的的N-Gram。超出文本范围的词汇映射值为0

    命令idngram2lm输入文件包括一个idngram文件,一个vocab文件和一个ccs文件,输出是一个后缀为binlm的语言模型文件。当中ccs文件指句首和句尾的静音<s></s>

    命令binlm2arpa是将binlm文件转换为实验中须要的arpa格式语言模型文件。

    4)转换为 CMU的二进制格式 (DMP)

            假设你的语言模型比較大的话,最好就转换为CMU的二进制格式 (DMP),这样能够加快载入语言模型的速度,降低解码器初始化的时间。但对于小模型来说,就没有这个必要,由于sphinx3能处理这两种后缀名的语言模型文件。

    #sphinx_lm_convert -i weather.arpa -o weather.lm.DMP

     

    终于生成了语言模型weather.lm.DMP,此文件为解码器端所须要的文件格式。

     

    二、改进现有的声学模型去适应我们的语音:

         (原文是Adapting the default acoustic model,但我不知道怎么用中文表达合适,呵呵,请各位前辈指导)

           本文主要描写叙述了怎样通过对声学模型做一些简单工作去改进语音识别。但须要注意的是,他改进的仅仅是你提供的适应数据和模型的匹配。比如:能够适应你的声音使得口语较好的识别,或者也能够使用特定的录音环境,适应你的或者用户的口音等等。

           适应的过程是通过提供适应的数据(我不知道怎么翻译,也就是你的录音数据)去改进现有的模型。这样获得的识别效果往往比又一次训练鲁棒性要强,虽然你的适应数据集比較小。比如,对于特定人来说,5分钟的语音就能够达到非常明显的听写精确度了。

     

    1、创建一个适应的语料库

          语料库包括了一些句子,这些句子是随意指定的,但最好能够覆盖你想要识别的句子里面包括的高频率单词或者音素。

           CMU提供了一个样例 CMU ARCTIC,里面包括了20个句子,但这个是英文的,所以我们得自己做一个中文的。CMU ARCTIC 见:http://festvox.org/cmu_arctic/

     

    1.1、须要的文件:

    共须要四个文件:

    arctic20.txt  文本文件:里面是中文的句子

    arctic20.fileids控制文件:记录我的语音文件(读arctic20.txt里面的句子的录音)的路径

    arctic20.transcription脚本文件:中文句子和语音文件的相应

    arctic20.dic 字典文件:记录arctic20.txt里面的句子的因素组成

           事实上我也不知道详细应该怎样建这些文件,我參考了CMU ARCTIC这个英文的,但中文有点不一样,我自己的这些文件的内容例如以下:(我新建了一个voice文件夹来管理这次的工作)

    arctic20.txt由于我是要语音控制系统的,所以我就加入了非常多这类的控制语言,共12个句子:

    你确定吗

    打开我的电脑,确定还是取消

    关闭计算机,退出浏览器

    你好吗?能够退出程序吗

    返回上一页还是返回主菜单

    放大还是缩小页面

    今天的天气不错,不下雨

    你喜欢听音乐吗,须要打开音乐播放器吗,听第几首歌

    须要浏览图片,上一张还是下一张

    我想看视频,有什么电影

    打开系统设置,基本设置

    进入主菜单,请控制,向左,向右,还是,向上,向下

     

    arctic20.fileids我把上面12个句子相应的录音文件(放在当前文件夹下的)命名为arctic_*,不须要后缀名的:

    arctic_0001

    arctic_0002

    arctic_0003

    arctic_0004

    arctic_0005

    arctic_0006

    arctic_0007

    arctic_0008

    arctic_0009

    arctic_0010

    arctic_0011

    arctic_0012

     

    arctic20.transcription前面 <s> </s>表示静音,()括号内的就是相应的录音文件:

    <s> 你确定吗 </s> (arctic_0001)

    <s> 打开我的电脑,确定还是取消 </s> (arctic_0002)

    <s> 关闭计算机,退出浏览器 </s> (arctic_0003)

    <s> 你好吗?能够退出程序吗 </s> (arctic_0004)

    <s> 返回上一页还是返回主菜单 </s> (arctic_0005)

    <s> 放大还是缩小页面 </s> (arctic_0006)

    <s> 今天的天气不错,不下雨 </s> (arctic_0007)

    <s> 你喜欢听音乐吗,须要打开音乐播放器吗,听第几首歌 </s> (arctic_0008)

    <s> 须要浏览图片,上一张还是下一张 </s> (arctic_0009)

    <s> 我想看视频,有什么电影 </s> (arctic_0010)

    <s> 打开系统设置,基本设置 </s> (arctic_0011)

    <s> 进入主菜单,请控制,向左,向右,还是,向上,向下 </s> (arctic_0012)

     

    arctic20.dic字典文件:记录arctic20.txt里面的句子的因素组成,我建立这个文件的时候还是比較坎坷的。先是按词语为单位,到后面统计时,统计只是去,然后我改成以词为单位,还是统计不了,出现段错误,最后我改成以句子为单位,就是以下这样,才干够,注意以下标红的这几个,和我们平时的拼音有点不一样:

    你确定吗  n i q uxe d ing m a

    打开我的电脑,确定还是取消 d a k ai w o d e d ian n aoq uxe d ing h ai sh ibq ux x i ao

    关闭计算机,退出浏览器 g uan b i j i s uan j i t ui ch u l iu l an q i

    你好吗?能够退出程序吗 n i h ao m a k e y i t ui ch u ch engx ux m a

    返回上一页还是返回主菜单 f an h ui sh ang y i y e h aish ib f an h ui zh u c ai d an

    放大还是缩小页面 f ang d a h ai sh ib s uo x iao y e m ian

    今天的天气不错,不下雨 j in t ian d e t ian q i b u c uo b u x ia y u

    你喜欢听音乐吗,须要打开音乐播放器吗,听第几首歌 n i x i h uan t ing y iny uxs uxe m a x ux y ao d a k ai y in y uxe b o f ang q i m a t ing d i j i sh ou g e

    须要浏览图片,上一张还是下一张 x ux y ao l iu l an t u p ian sh ang y i zh ang h ai sh i x ia y i zh ang

    我想看视频,有什么电影 w o x iang k an sh i p in y ou sh en m e d ian y ing

    打开系统设置,基本设置 d a k ai x i t ong sh ezh ib j i b en sh e zh ib

    进入主菜单,请控制,向左,向右,还是,向上,向下 j in r u zh u c ai d an q ing k ong zh ib x iang z uo x iang y ou h ai sh i x iang sh ang x iang x ia

     

    1.2、录制你的适应数据

            为适应语料库里面的每一个句子录制一个语音文件,录音文件的命名须要和arctic20.transcriptionarctic20.fileids的一致

            注意:此处音频文件採样率16KHz16bit单声道录音,并且是wav格式。

           我在Linux下写了一个处理脚本来实现上面这12个句子的录音:rec_wav.sh,内容例如以下:

    for i in `seq 1 12`; do

           fn=`printf arctic_%04d $i`;

           read sent; echo $sent;

           rec -r 16000 -e signed-integer -b 16 -c 1 $fn.wav 2>/dev/null;

    done < arctic20.txt

            在这里我们须要用到rec这个录音命令,这个命令是由Linux下一个非常有名的音频转换程序sox携带的,所以我们须要先安装sox

    #apt-get install sox

    然后改变rec_wav.sh的执行属性:

    #chmod 777 rec_wav.sh

    #./rec_wav.sh

           这个脚本会显示一句话,然后进入录音,我们把这个句子读出来,然后按ctrl+c显示下一句话,然后录音,如此循环到所有的句子的语音数据拿到。这样在当前文件夹以下就会显演示样例如以下文件:

    arctic_0001.wav 

    arctic_0002.wav

    .....

    arctic_0012.wav

    然后,我们须要測试下每一个音频文件是否正常:

    for i in *.wav; do play $i; done

    他会依次的播放我们录下的这些音频文件;假设不正确的话,就得重录,我的就没有什么问题。

     

    2、适应声学模型

          首先我们须要先拷贝现有的默认的声学模型到当前文件夹下

    #cp -a /usr/local/share/pocketsphinx/model/hmm/zh/tdt_sc_8k/ .

    这个是pocketsphinx自带的中文声学模型

     

    2.1、生成声学特征文件

            我们须要对我们录制的wav语音文件提取MFCC特征,并且必须以和默认的模型同样的声学模型參数去提取这些特征,他们存储在声学模型文件夹的feat.params文件里。

    #sphinx_fe -argfile tdt_sc_8k/feat.params -samprate 16000 -c arctic20.fileids -di . -do . -ei wav -eo mfc -mswav yes

    这样在当前文件夹下就会对每一个语音文件生成一个*.mfc后缀的特征文件:(我这里生成的是*.mfc,但我执行后面的工作,也就是统计数据时,发现统计程序须要的是*..mfc的,我也不知道哪里出现故障了,所以我仅仅能将其改动为*..mfc

    arctic_0001.mfc

    arctic_0001.wav

    arctic_0002.mfc

    arctic_0002.wav

    ……

     

    2.2、转化sendumpmdef文件

           有一些模型没有足够的数据去做适应。这里有一个额外的文件我们须要下载的,为了节省空间,所以没有加入进PocketSphinx的发行版包了。我们能够从以下的链接下载:

    http://cmusphinx.svn.sourceforge.net/viewvc/cmusphinx/trunk/pocketsphinx-extra/?view=tar

            解压,拷贝pocketsphinx-extra/model/hmm/zh/mandarin_sc3_notone_3s_8k.cd_semi_5000文件夹里面的mixture_weights文件到你的声学模型文件夹下;

    #cp ../sourcecode/pocketsphinx-extra/model/hmm/zh/mandarin_sc3_notone_3s_8k.cd_semi_5000/mixture_weights tdt_sc_8k/

            当然,假设你安装了 SphinxTrain Python modules,那么你就能够使用sendump.py去把声学模型的sendump文件转换为mixture_weights文件。

           然后我们须要把声学模型的mdef文件转换为SphinxTrain训练工具能够使用的plain text格式:

    #pocketsphinx_mdef_convert -text tdt_sc_8k/mdef tdt_sc_8k/mdef.txt

     

    2.3、累加观察序列

           通过SphinxTrain训练工具带的bw程序去收集适应数据的统计数据。bw程序在sphinxtrain-1.0.7声学训练工具源代码的bin.i686-pc-linux-gnu文件夹中。

    bw map_adapt mk_s2sendumpmllr_solve程序都复制到当前文件夹。

    #cp ../sourcecode/sphinxtrain-1.0.7/bin.i686-pc-linux-gnu/bw .

    #cp ../sourcecode/sphinxtrain-1.0.7/bin.i686-pc-linux-gnu/mk_s2sendump .

    #cp ../sourcecode/sphinxtrain-1.0.7/bin.i686-pc-linux-gnu/map_adapt .

    #cp ../sourcecode/sphinxtrain-1.0.7/bin.i686-pc-linux-gnu/mllr_solve .

    然后開始统计:

    ./bw -hmmdir tdt_sc_8k -moddeffn tdt_sc_8k/mdef.txt -ts2cbfn .semi. -feat 1s_c_d_dd -svspec 0-12/13-25/26-38 -cmn current -agc none -dictfn arctic20.dic -ctlfn arctic20.fileids -lsnfn arctic20.transcription -accumdir .

    确保bw的參数和声学模型文件夹的feat.params文件一致;

           我刚才说过字典文件的建立的时候,以词语和单字为基本单元的时候,在这个步骤就会出现以下相似的错误:

    ……

    utt>     0               arctic_0001stat_retry(arctic_0001..mfc) failed

    ERROR: "corpus.c", line 1555: MFCC read of arctic_0001..mfc failed.  Retrying after sleep...

    stat_retry(arctic_0001..mfc) failed

    ERROR: "corpus.c", line 1555: MFCC read of arctic_0001..mfc failed.  Retrying after sleep...

    stat_retry(arctic_0001..mfc) failed

     ……

    utt>     0               arctic_0001  357INFO: cmn.c(175): CMN: 30.40 -1.07 -0.65 -0.24  1.70 -0.08 -0.39  0.05  0.59 -0.15  0.15  0.40  0.34

        0WARNING: "mk_phone_list.c", line 173: Unable to lookup word '你确定吗' in the lexicon

    WARNING: "next_utt_states.c", line 79: Segmentation fault (core dumped)

    改动为句单元后,就没有问题了。

     

    2.4、创建MLLR(最大似然线性回归算法)变换

              MLLR是一种有效的轻量级的自适应方法,尤其是当样本数据集较小时。在在线适应中使用MLLR是一种比較好的方法。MLLR在连续模型中表现得比較好,可是由于半连续模型非常依赖混合权重,所以它的效果有限。假设想得到最好的精确度,最好将MLLR适应和MAP适应两种方法结合起来应用;

          以下我们产生MLLR变换,并在执行时将其传入解码器去适应这个声学模型。

    #./mllr_solve -meanfn tdt_sc_8k/means -varfn tdt_sc_8k/variances -outmllrfn mllr_matrix -accumdir .

          这个命令行会产生一个名叫mllr_matrix的适应数据文件。如今,假设我们须要使用这个适应模型,那就能够通过给pocketsphinx命令行參数加入 -mllr mllr_matrix来使用;

     

    2.5、通过MAP更新声学模型

              MAP是一个不同的适应方法。他不同于MLLR,他不会创建一个通用的变换,而是更新每一个模型參数。

           我们将原来的声学模型文件夹拷贝为一个新的模型文件夹:

    #cp tdt_sc_8k/ -rf tdt_sc_8kadapt

    通过map_adapt程序来实现适应:

    #./map_adapt -meanfn tdt_sc_8k/means -varfn tdt_sc_8k/variances -mixwfn tdt_sc_8k/mixture_weights -tmatfn tdt_sc_8k/transition_matrices -accumdir . -mapmeanfn tdt_sc_8kadapt/means -mapvarfn tdt_sc_8kadapt/variances -mapmixwfn tdt_sc_8kadapt/mixture_weights -maptmatfn tdt_sc_8kadapt/transition_matrices

     

    2.6、又一次创建适应的sendump文件

           通过已经更新的mixture_weights文件来又一次创建 sendump文件,能够节省空间:

    #./mk_s2sendump -pocketsphinx yes -moddeffn tdt_sc_8kadapt/mdef.txt -mixwfn tdt_sc_8kadapt/mixture_weights -sendumpfn tdt_sc_8kadapt/sendump

     

    好了,恭喜你,如今你已经拥有一个改进了的适应你的语音的声学模型了。

     

    新的声学模型在hub4wsj_sc_8kadapt文件夹下,文件夹有以下文件:

    mdef

    feat.params

    mixture_weights

    means

    noisedict

    transition_matrices

    variances

    然后把他复制到我们的软件文件夹,

    #pocketsphinx_continuous -hmm <your_new_model_folder> -lm <your_lm> -dict <your_dict>

    然后就能够使用了。当中的语言模型和字典文件用默认的就可以。

     

           我试验了以下,感觉提升也不是非常大。识别率还是挺低的,呵呵,不知道是不是我这个过程有一些错误或者有一些没有考虑的地方。所以临时也没办法实用。

     

            我也试验了pocketsphinx所携带的英语的识别,感觉比中文的好点,但识别率还是不高,呵呵,也可能是我的发音不标准。对于中文的大词汇量语音识别来说,我试过微软的,IBM的,感觉效果也不算特别好,只是商业的一般都会比这些开源的好,由于别人有足够的样本(不同人不同录音环境等等)去训练一两个月。但CMU这个开源项目还是得到不少的资助的。另外,不知道国内牛逼的科大讯飞怎样,还没试过。

            而对于小词汇量的语音识别,比如一些控制指令集啊,数字啊这些,好像精确度都做得挺好的了。所以难道我要妥协仅仅能採用小词汇量的语音识别来加入我的人机交互系统吗?但这样就仅仅是能控制机器而已,不能像iphonesiri这样和她聊天了?不知道各位前辈有什么建议吗?

     

  • 相关阅读:
    机器人走方格问题
    一道数列的规律题(使用递归解决)
    反转单链表
    求一个二叉树的深度以及如何判断一个二叉树是一个平衡二叉树
    打印素数
    DAY28-mysql扩展与预处理-查出问题的关键
    DAY31
    jQuery很简单很基础的
    JavaScript中的事件委托及好处
    结合个人经历总结的前端入门方法
  • 原文地址:https://www.cnblogs.com/bhlsheji/p/4514475.html
Copyright © 2020-2023  润新知