• 自适应滤波:梯度下降算法


    作者:桂。

    时间:2017-04-01  06:39:15

    链接:http://www.cnblogs.com/xingshansi/p/6654372.html 

    声明:欢迎被转载,不过记得注明出处哦~


    【学习笔记07】

    前言

    西蒙.赫金的《自适应滤波器原理》第四版第四章:最速下降算法。优化求解按照有/无约束分类:如投影梯度下降算法((Gradient projection)便是有约束的优化求解;按照一阶二阶分类:梯度下降(Gradient descent)、Newton法等;按照偏导存在与否分类:如梯度下降、次梯度下降(Subgradient descent)等.本文主要整理:梯度下降法在维纳滤波中的应用.

    一、原理思想

     对于准则函数:

    需要寻找最优解$w_o$,使它对所有$w$满足$J(w_o) le J(w)$。可以利用迭代下降的思路求解:

    从初始值$w(0)$出发, 产生一系列权向量$w(1)$,$w(2)$...,使得准则函数每一次迭代都是下降的:$J(w(n+1)) < J(w(n))$,其中$w(n)$是权向量的过去值,$w(n+1)$是更新值。

    定义梯度:

    $g = abla Jleft( w ight) = frac{{partial Jleft( w ight)}}{{partial w}}$

    负梯度方向为减小方向:

    $w(n + 1) = w(n) - mu  cdot g(n)$

    为了说明准则函数随着迭代下降,从一阶泰勒展开可以观察:

    二、应用实例

     仍然借助维纳滤波一文的例子:

    已知

    含有噪声的正弦波:$y(n) = x(n) + w(n) = sin (2pi fn + heta ) + w(n)$.

    其中$f = 0.2$为归一化频率[-1/2, 1/2],$ heta$为正弦波相位,服从[0,2$pi$]的均匀分布,$w(n)$为具有零均值和方差$sigma^2 = 2$的高斯白噪声。

    时域维纳滤波器。假设滤波器为时域滤波器时$M=2$.

    首先求解相关矩阵:

    $x(n)$为广义平稳随机过程,可以计算其自相关函数:

    ${r_{xx}}left( m ight) = cos (2pi fn)$

    得到关于均方误差的准则函数:

    代入数值:

    迭代的时候,可以保留矩阵的形式,也可以利用代数的形式,形式不同但本质相同,以矩阵为例:

    得到梯度$ abla J =  - 2{f{r}}_{yd}^{ - 1} + 2;{{f{R}}_{yy}}{f{h}}$.

    对应搜索代码:

    r_yd = [0.5 0.154]';
    R_yy = [2.5 0.154;0.154 2.5];
    h_est = [0 0]';
    deltaJold = Inf;
    mu = 0.001;
    for i = 1:2000
        deltaJ = -2*r_yd+2*R_yy*h_est;
        if abs(deltaJ-deltaJold)<1e-5
            break;
        end
        h_est = h_est - mu*deltaJ
        deltaJold = deltaJ;
    end
    

    即可得出最优解$h = [0.197 , 0.0495]'$。

    三、稳定性

    上文中$mu$取0.001,$mu$如何取值才能保证梯度正常下降呢?事实上,如果$mu$过大结果会往外发散而不是收敛于最优点。

    借助维纳滤波一文可以知道,

    ${w_o} = ;{f{R}}_{_{yy}}^{ - 1}{f{r}}_{yd}^ - $

    从而有:

    记$c(n) = w_o - w(n)$:

    $c(n + 1) = c(n)left( {{f{I}} - 2mu {{f{R}}_{yy}}} ight)$

    对于正定矩阵,存在正交矩阵:

    ${{f{R}}_{yy}} = {f{QLambda }}{{f{Q}}^{ - 1}}$

    即${f{I}} - 2mu {{f{R}}_{yy}}{ m{ = }}{f{Q}}left( {{f{I}} - 2mu {f{Lambda }}} ight){{f{Q}}^{ - 1}}$,为此保证最大特征值小于1即可保证收敛:

    如对应上面$h$的求解,$frac{1}{{{lambda _{max }}}}= 0.3768$,用上面的程序容易验证$mu = 0.37$时满足条件,可以收敛;$mu = 0.38$则发散,无法得到最优值。

      

    四、理论扩展

    如果沿着曲线直接寻优,我们称为:精确直线搜索。如计算:

    这是就是$Delta x$与$x$固定后,该问题就是$t$的函数,易求解。但实际情况中,准则函数并不总是这么理想,因此借助近似的思路去寻优,成了一种更普适的方式,梯度下降法、牛顿法都是基于该思路。

    这里给出一个更简单的例子$y = kx$的拟合问题,其中$k$未知。

    首先给出结果图:

     

    100组随机试验,未添加噪声。

    给出code:

    N = 100;
    a = zeros(1,N);
    mu =0.002;
    flag = 2;
    for k = 1:N
        xold = linspace(-10,10,60);
        nums = randperm(length(xold));
        x = xold(nums);
        y = 3*x +2*randn(1,length(x));
        switch flag
            case 1
                a_est = 0;
                batch = 10;
                for i=1:batch:length(x)
                    a_est = a_est+mu*(x(i:i+batch-1)*(y(i:i+batch-1)-a_est*x(i:i+batch-1)).');
                end
            case 2
                a_est = 0;
                batch = 1;
                for i=1:batch:length(x)
                    a_est = a_est+mu*(x(i:i+batch-1)*(y(i:i+batch-1)-a_est*x(i:i+batch-1)).');
                end
        end
        a(k) = a_est;
    end
    

    对于相关矩阵:来自统计均方误差,但实际应用中通常无法得知概率分布以及相关矩阵,通常是基于遍历性假设,以便利用时间换取空间。即:

    ${{f{R}}_{yy}} approx frac{{{{f{y}}^T}{f{y}}}}{N}$

    与之对应的统计误差也不再是均方意义上,假设时间换空间的序列长$N$:

    简单来说:当$N$较大时,对应的梯度下降称之为——批量(Batch)梯度下降,当$N=1$即每次来一个样本,对应称之为——随机梯度下降

    通过上面的小程序可以得出两点结论:

    • 初始值
    • 迭代步长
    • 特征尺寸(一维无此问题)

    二者都对寻优产生影响。事实上对于高维数据,不同特征尺寸不同,对寻优也有影响,通常需要分别对特征进行归一化。

      A-批量梯度下降

    仍然以线性回归为例:

    这里$x_0 = 1$,给出准则函数,便于求导通常添加$1/2$:

    求偏导:

    从而:

    可以写为:

    迭代至满足收敛条件即可求解。

      B-随机梯度下降

    对应批量梯度下降,当$m = 1$即一次只接受/处理一个样本,对应为随机梯度下降。

    事实上,当引入噪声时,时间换空间只能是一种近似,即批量/随机梯度下降的最优解,通常不是维纳滤波的最优解。基于随机梯度的最小均方误差(Least mean square,LMS)通常称为LMS算法,以示与梯度下降的区别。

      C-Newton-Raphson法

     梯度下降法基于一阶近似,如果二阶逼近收敛是否会更快一些?即寻找梯度的梯度——走一步想两步。

    再次给出梯度下降的一阶Taylor近似:

    $fleft( {{f{x}} + Delta {f{x}}} ight) approx fleft( {f{x}} ight) + {left( { abla fleft( {f{x}} ight)} ight)^T} cdot Delta {f{x}}$

    给出二阶Taylor近似:

    ${ abla ^2}fleft( {f{x}} ight)$对应的矩阵称为Hessian矩阵,该方法成为牛顿法(Newton),也称Newton-Raphson法。

    对于点$x_k$,选择下降方向:

    参考:

    • Simon Haykin 《Adaptive Filter Theory Fourth Edition》.
    • Philipos C.Loizou《speech enhancement theory and practice》.
    • 张贤达《矩阵分析与应用》.
  • 相关阅读:
    【算法设计与分析基础】8、背包问题
    【算法设计与分析基础】8、穷举 旅行商问题
    【算法设计与分析基础】7、蛮力求平面中距离最近的两点
    【算法设计与分析基础】6、蛮力字符匹配
    【算法设计与分析基础】5、冒泡排序与选择排序
    【算法设计与分析基础】4、伪随机数
    【算法设计与分析基础】3、斐波拉契数列
    【算法设计与分析基础】2、矩阵相乘
    【算法设计与分析基础】1、埃拉托色尼筛选法
    【JAVA并发编程实战】12、使用condition实现多线程下的有界缓存先进先出队列
  • 原文地址:https://www.cnblogs.com/xingshansi/p/6654372.html
Copyright © 2020-2023  润新知