• 【模式识别与机器学习】——3.8可训练的确定性分类器的迭代算法


    3.8.1梯度法

    定义:

    梯度是一个向量,它的最重要性质就是指出了函数f在其自变量y增加时最大增长率的方向。

    负梯度指出f的最陡下降方向 利用这个性质,可以设计一个迭代方案来寻找函数的最小值。

    采用梯度法求解的基本思想

    对感知器算法

    式中的w(k)、xk随迭代次数k而变,是变量。 定义一个对错误分类敏感的准则函数J(w, x)。先任选一个初始权向量w(1),计算准则函数J的梯度,然后从w(1)出发,在最陡方向(梯度方向)上移动某一距离得到下一个权向量w(2) 。

    讨论

      若正确地选择了准则函数J(w,x),则当权向量w是一个解时,J达到极小值(J的梯度为零)。由于权向量是按J的梯度值减小,因此这种方法称为梯度法(最速下降法)。

      为了使权向量能较快地收敛于一个使函数J极小的解,C值的选择是很重要的。

      若C值太小,则收敛太慢; 若C值太大,则搜索可能过头,引起发散。

    3.8.2固定增量的逐次调整算法

    过程说明:

      设已由前一步迭代得到w(k)的值。 读入模式样本xk,判别wT(k)xk是否大于0。

      在示意图中,xk界定的判别界面为wT(k)xk=0。

      当w(k)在判别界面的负区域时, wT(k)xk<0。 校正: w(k+1)= w(k)+ xk ,这里取C=1。 校正后, w(k+1)向量比w(k)向量更接近于模式xk所决定的正区域。

    讨论:

      若模式是线性可分的,选择合适的准则函数J(w,x),算法就能给出解。 若模式不是线性可分的,算法的结果就会来回摆动,得不到收敛。

    作业:

    采用梯度法和准则函数 式中实数b>0,试导出两类模式的分类算法。

     3.8.3 最小平方误差(LMSE)算法

    出发点

      感知器算法只是当被分模式可用一个特定的判别界面分开时才收敛,在不可分情况下,只要计算程序不终止,它就始终不收敛。 即使在模式可分的情况下,也很难事先算出达到收敛时所需要的迭代次数。 这样,在模式分类过程中,有时候会出现一次又一次迭代却不见收敛的情况,白白浪费时间。

      为此需要知道:发生迟迟不见收敛的情况时,到底是由于收敛速度过慢造成的呢,还是由于所给的训练样本集不是线性可分造成的呢?

      最小平方误差(LMSE)算法,除了对可分模式是收敛的以外,对于类别不可分的情况也能指出来。

    几个重要的公式:

            

                       

    小结

    固定增量算法:

      实现相对简单,可直接引伸到多类模式的分类情况,但未提供模式线性可分的测试特征; LMSE算法:相对复杂,需要对XTX求逆(维数高时求逆比较困难),但对两类情况,提供了线性可分的测试特征。

     

  • 相关阅读:
    python基础-网络编程part01
    常见的加密算法
    mvn常用命令
    Stream排序Map集合
    解决浮点运算精度不准确,BigDecimal 加减乘除
    阿里fastjson解析
    java可变参数
    set集合迭代
    包装类型间的相等判断
    java集合与数组之间转换
  • 原文地址:https://www.cnblogs.com/chihaoyuIsnotHere/p/9789252.html
Copyright © 2020-2023  润新知