• Chapter 7:Statistical-Model-Based Methods


    作者:桂。

    时间:2017-05-25  10:14:21

    主要是《Speech enhancement: theory and practice》的读书笔记,全部内容可以点击这里

    书中代码:http://pan.baidu.com/s/1hsj4Wlu,提取密码:9dmi


    前言

      最近学习有一点体会,每一个学科的理论模型都提供了解决问题的思路,一个没有受过教育又迷信权威的头脑,难以从抽象的角度去认识、理解问题,自然科学传递了这样一套思维。例如之前的谱减法,就是具体问题具体分析;维纳滤波,表达了复盘、以及反馈总结的重要性;这一章的统计模型,表达了对于不善于长期记忆的人类,借助历史信息可以获得更多的益处。总结一下,这些模型都表明:认识问题要经过感性-理性-感性的往复过程,很难有一劳永逸的方法,这也提醒思考的时候要小心、并保持客观(因为总有新问题),避免陷入刚愎自用的误区,同时也不必灰心丧气,从Ada-boost的角度来看,任何弱分类器都可以组合成强分类器,自己/他人的经历、经验增加(无论真假,只要努力推理出真与假的倾向),一个基本事实是:合理利用这些信息,总会让人更接近事实真相。具体来说,对于语音降噪,都有:意识到问题——拆解并解决问题 的步骤,这也说明了一个现象:学习、记忆、认知,这些 靠眼耳鼻舌身意 直观接受的过程,如果二次加工,那么效果将会进一步提升。

      这一章主要是利用统计模型,细节处打算跳过,主要是三种模型:最大似然估计ML、最小均方误差估计MMSE、最大后验估计MAP。

    一、最大似然估计:MAXIMUM-LIKELIHOOD ESTIMATORS

      A-最大似然估计

    加性噪声模型

    写成幅频形式

    为了求解,给出两点假设:1)虽然未知,但是确定信号,而不是随机信号;2)噪声是复高斯分布,且实部、虚部的方差相同;

    这个求解比较复杂,且仍然可以用带噪声的相位近似,这样一来就是无关紧要的了,可以对上面的式子进一步处理:

    这里是未知的,这里强行用了另一个约束:在没有先验的情况下,均匀分布信息量最大,也就是不确定性最大,这也符合没有先验之一预期,从而

    上式简化为

    这里积分部分满足Bessel的定义

    零阶Bessel可近似:

     近似的结果

    利用Bessel近似表达似然函数

    导数为零求解出幅度谱估计

    恢复降噪的信号

    从这一结果也可以看出X = 1/2Y + 1/2HY,总是有部分保留,ML衰减是较小的,也正因为如此,ML估计器基本不单独使用,需要配合其他模型使用:如利用语音不存在概率

      B-功率谱减

    与ML估计器不同,这里不再假定是确定信号,而是随机信号。 

    既然是随机信号,就有统计信息。因此给出假设:噪声、语音信号的DFT不相关,且都服从零均值的高斯分布。从而得出Y概率密度

    容易估计幅度谱

    得到恢复的音频

    这就是功率谱减,即(γ为后验信噪比)

      C-维纳滤波

    对于维纳滤波器

    变换一下形式

    滤波器是功率谱减的级联,因此衰减最大。

    总计一下:按衰减程度由大到小,关系依次是:维纳滤波>功率谱减>最大似然估计

    二、贝叶斯估计 BAYESIAN ESTIMATORS

       A-MMSE幅值估计器

    基于短时频谱幅值的方法有个专业术语:,最优幅度谱估计:

    根据联合密度

    得到最优估计器

    看着感觉跟Wiener滤波器一回事,其实是有区别的:1)Wiener中,X = HY,假设有线性关系,这里没有线性这一约束,也就是说这里的估计器可以是非线性的; 2)维纳的MMSE是复频谱最优,而此处的MMSE是幅度谱最优

    同样是为了简化,引入约束1:各个频点的DFT系数相互独立:

    这样一来求解问题简化为:

    由于复信号Y是关于Xk和theta的函数,难以直接求取,只要利用联合分布积分处理即可,也就是

     这样一来求解红框里的两个方程就可以得出理论解。这里引入约束2:Y是两个零均值的复高斯随机变量之和

     则

    这里用到复高斯概率密度的性质:

    如果:

     且两高斯分布:其模值为瑞利分布,相位为均匀分布,且二者独立,证明可以参考这里。从而

    事实上,至此完成了问题的求解,得到Xk的估计。但牛人们非要给一个更简洁的表达式,这里直接给出结果: 

    具体参数的定义,直接引用原文:

    理论模型搭建完成,甚至得出了更简洁的形式,距离应用只差一步——参数的近似估计。文中的基本方法有两个:

    1-Maximum-Likelihood Method

    利用多帧信号:,求解似然方程

    容易得出估计(因为是非零,所以max(估值,0)修正一下)

    从而有

    2-Decision-Directed Approach

    根据定义

    进一步写成

    一个常规的思路是分两边看,借助递归思想,因为:

    得出递归的更新公式

    至此,完成了MMSE从理论到应用的整个过程。

      B-MMSE复数估计器

    上面是幅值估计,相位用的是带噪信号的相位,可不可以直接对复信号利用MMSE进行估计呢?

    求解问题转化为:分别利用MMSE求解幅值、相位的最优解,幅值已解决,直接分析相位

    可以得出,所以带噪信号的相位是干净信号相位在MMSE下的最优解。

      C-对数MMSE估计器

    求解思路与幅值的MMSE完全相同,不同的是利用对数的差异性

    首先带来一个问题:为什么要用Log-MMSE?个人理解是logx - logy = logx/y,min|x/y|等价于min(x-y)2 s.t. y2 = c,c为常数。log相比于直接MMSE,保证干净信号幅值不变(不失真)的前提下,误差最小化,有点类似维纳滤波与LCMV之间的关系。理论上直接求解估值

    无法直接求解,利用矩量简化求解

    其中

    跟MMSE求解一个思路,至此完成求解。但牛人们也希望简化

    从而实现简化求解

    vk, λk跟上面的定义一样,进一步简化

    参数估计与MMSE中的思路完全一致,至此完成了求解以及实际应用的实现,其中积分部分也可以利用级数展开来简化

    Log-MMSE比MMSE抑制性更好

      D-pTH-POWER SPECTRUM-P阶求解

    先说结论:p阶是更广义的形式,Linear MMSE是它的特例,Log-MMSE也可以用p阶来实现逼近

    下面理论分析一下,给出准则函数

    得出最优估计

    都是一样的套路:不能直接求解,转化问题

    大牛们求解的结果

    具体参数求解同MMSE中的方法。

      E-非高斯分布MMSE估计器

    上面的DFT系数分布,都假设为高斯分布,实际情况是分布可能更接近其他分布(按频点统计):如拉普拉斯、伽马分布等等,这就需要考虑其他概率模型

    一个合理的约束:DFT系数实部、虚部统计独立。这样互不相干,可以分别得出MMSE估计器,再进行拼接:

    其他思路都是一样的,就是最后解方程一般人解不动...说一下思路:

    根据贝叶斯定理

    同样只要估计出P(Y|X)和P(Y)就完成求解

    从而得出估计器,完成求解

    大牛总是可以简化问题的,虽然这次的简化好像也不漂亮:

    其中

    以上是基于Gamma分布的推导,这里只是提供了一个笼统的思维框架。放在具体问题,需要:统计实验数据,并估计概率模型→基于合理的概率模型,得到用来增强的估计器

    三、最大后验估计 MAXIMUM a POStErIOrI (MAP) ESTIMATORS 

      A-幅值、相位估计器

    准则函数

    利用贝叶斯准则

    分母不影响参数的估计,忽略

    约束来了:1)DFT系数实部、虚部都是高斯分布;2)二者统计独立,从而有

    这样一来,求解就容易了

    偏导为零,得出估计器

    实际应用中具体参数的估计,与上面的思路都是一致的。

      B-幅值估计器

    只估计幅值:

    贝叶斯准则

    忽略分母

    利用

    并借助A中的两个表达式,得出估计

    其中

    与ML准则估计器中的思路一样,对Bessel近似处理

    得出

    从而得出估计器

      C-调参的建议

    这一节是看到这里想到的,注意观察A、B两个估计器

    自己突发奇想,估计最多就水个水论文用得上,放在这里-感兴趣拿走。所以一个自然的思路是将他们推而广之:

    α是可以调节的参数。

    ML、MMSE、MAP三种估计器

    1)其实ML可以理解成均匀分布的贝叶斯,这个时候的先验知识为零,通常贝叶斯假设高斯、拉普拉斯等分布(如幅值),这就引入了先验知识,如果这个先验知识有效,理论上效果应该比ML更好;这就像回归中的应用:无约束=均匀分布→最小二乘,高斯分布→Ridge回归,拉普拉斯分布→Lasso回归。

    2)MMSE是基于统计平均的贝叶斯估计,注意它与Wiener是有区别的,虽然都基于均方误差最小准则;

    3)MMSE找的是的均值,即,而MAP准则找的是的最大值。

    四、利用不存在概率  INCORPORATING SPEECH ABSENCE PROBABILITY IN SPEECH ENHANCEMENT

    其实就是信息融合,也就是Boosting的思想:两个弱分类器,组合一个强分类器,两个弱增强器,组合一个强增强器。不多说了,不过书中将这点应用的还不够深入

    组合

    关于此部分的更多内容参考这里

  • 相关阅读:
    Document
    Document
    Document
    Document
    Document
    Document
    8. vue 的生命周期
    7. vue-cli 安装和使用脚手架
    5.组件(2) 之 父级传子级
    6.组件(3) 之 子级传父级
  • 原文地址:https://www.cnblogs.com/xingshansi/p/6902764.html
Copyright © 2020-2023  润新知