• BP神经网络算法改进


    周志华机器学习BP改进

    试设计一个算法,能通过动态调整学习率显著提升收敛速度,编程实现该算法,并选择两个UCI数据集与标准的BP算法进行实验比较。


    1.方法设计
    传统的BP算法改进主要有两类:
    - 启发式算法:如附加动量法,自适应算法
    - 数值优化法:如共轭梯度法、牛顿迭代法、Levenberg-Marquardt算法

    (1)附加动量项
    这是一种广泛用于加速梯度下降法收敛的优化方法。其核心思想是:在梯度下降搜索时,若当前梯度下降与前一个梯度下降的方向相同,则加速搜索,反之则降速搜索。

    标准BP算法的参数更新项为:

    Δω(t)=ηg(t)

    Δω(t)t,ηg(t)t

    在添加动量项后,基于梯度下降的参数更新项为:

    Δω(t)=η[(1μ)g(t)+μg(t1)]

    始终,μ为动量因子(取值 0~1)。上式也等价于:
    Δω(t)=αΔω(t1)+ηg(t)

    式中α 称为遗忘因子,αΔω(t1)表示上一次梯度下降的方向和大小信息对当前梯度下降的调整影响。

    (2) 自适应学习率
    附加动量法面临选取率的选取困难,进而产生收敛速度和收敛性的矛盾。于是另考虑引入学习速率自适应设计,这里给出一个·自适应设计方案:

    η(t)=ση(t1)

    上式中,η(t)为第t次迭代时的自适应学习速率因子,下面是一种计算实力:

    σ(t)=2λ
    其中λ为梯度方向:λ=sign(g(t)(t1))
    这样,学习率的变化可以反映前面附加动量项中的“核心思想”

    (3)算法总结
    将上述两种方法结合起来,形成动态自适应学习率的BP改进算法:
    这里写图片描述
    从上图及书中内容可知,输出层与隐层的梯度项不同,故而对应不同的学习率 η_1 和 η_2,算法的修改主要是第7行关于参数更新的内容:

    将附加动量项与学习率自适应计算代入,得出公式(5.11-5.14)的调整如下图所示:
    这里写图片描述

    2.对比实验


  • 相关阅读:
    剑指OFFER之合并有序链表(九度OJ1519)
    剑指OFFER之反转链表(九度OJ1518)
    剑指OFFER之链表中倒数第k个节点(九度OJ1517)
    一分钟教你在博客园中制作自己的动态云球形标签页
    剑指OFFER之调整数组顺序使奇数位于偶数前面找(九度OJ1516)
    剑指OFFER之打印1到最大的N位数(九度OJ1515)
    剑指OFFER之矩形覆盖(九度OJ1390)
    剑指OFFER之数值的整数次方(九度OJ1514)
    剑指OFFER之变态跳台阶(九度OJ1389)
    剑指OFFER之二进制中1的个数(九度OJ1513)
  • 原文地址:https://www.cnblogs.com/bryce1010/p/9386970.html
Copyright © 2020-2023  润新知