• 神经网络- 深度学习optimizer的选择


    optimizer是在训练中,运用到的训练方法,最常用的是梯度下降法,去寻找最优loss,tf中常见的optimizer有:

    通过Dr.Sebastian Ruder 的论文An overview of gradient descent optimization algorithms来详细了解一些优化器的选择。

    论文地址:https://arxiv.org/pdf/1609.04747.pdf

    1. 首先讨论 Batch gradient descent, 公式为: θ = θ − η · ∇θJ(θ)

    BDG采用整个训练集来计算cost function对参数的梯度,由于这种方法是在一次更新中,就对整个数据集计算梯度,所以计算起来非常慢,遇到很大量的数据集也会非常棘手,而且不能投入新数据实时更新模型。

    for i in range(nb_epochs):
      params_grad = evaluate_gradient(loss_function, data, params)
      params = params - learning_rate * params_grad

    2.Stochastic gradient descent, 公式为:θ = θ − η · ∇θJ(θ; x (i) ; y (i) )

    和 BGD 的一次用所有数据计算梯度相比,SGD 每次更新时对每个样本进行梯度更新, 对于很大的数据集来说,可能会有相似的样本,这样 BGD 在计算梯度时会出现冗余,而 SGD 一次只进行一次更新,就没有冗余,而且比较快,并且可以新增样本。

    for i in range(nb_epochs):
      np.random.shuffle(data)
      for example in data:
        params_grad = evaluate_gradient(loss_function, example, params)
        params = params - learning_rate * params_grad

    代码可以看出,在数据集中循环,每次样本做梯度下降更新。

    缺点:更新频繁,会造成 cost function 有严重的震荡

    BGD 可以收敛到局部极小值,当然 SGD 的震荡可能会跳到更好的局部极小值处。当我们稍微减小 learning rate,SGD 和 BGD 的收敛性是一样的。

    3. Mini-batch gradient descent, 公式:θ = θ − η · ∇θJ(θ; x (i:i+n) ; y (i:i+n) )

    MBGD 每一次利用一小批样本,即 n 个样本进行计算, 这样它可以降低参数更新时的方差,收敛更稳定,另一方面可以充分地利用深度学习库中高度优化的矩阵操作来进行更有效的梯度计算。和 SGD 的区别是每一次循环不是作用于每个样本,而是具有 n 个样本的批次。

    for i in range(nb_epochs):
      np.random.shuffle(data)
      for batch in get_batches(data, batch_size=50):
        params_grad = evaluate_gradient(loss_function, batch, params)
        params = params - learning_rate * params_grad

    batch_size通常为:50~256。

    缺点: 

    不过 Mini-batch gradient descent 不能保证很好的收敛性:

    1. learning rate 如果选择的太小,收敛速度会很慢,如果太大,loss function 就会在极小值处不停地震荡甚至偏离。(有一种措施是先设定大一点的学习率,当两次迭代之间的变化低于某个阈值后,就减小 learning rate,不过这个阈值的设定需要提前写好,这样的话就不能够适应数据集的特点)

    2. 此外,这种方法是对所有参数更新时应用同样的 learning rate,如果我们的数据是稀疏的,我们更希望对出现频率低的特征进行大一点的更新。

    3. 另外,对于非凸函数,还要避免陷于局部极小值处,或者鞍点处,因为鞍点周围的error 是一样的,所有维度的梯度都接近于0,SGD 很容易被困在这里。

    函数凹凸性:

    鞍点:一个光滑函数的鞍点邻域的曲线,曲面,或超曲面,都位于这点的切线的不同边。

    4.Momentum

    SGD有时候会被局部最优解给困住,会导致SGD有时会在选择局部最优解时犹豫,也就是不停的震荡,Momentum 通过加入 γv_t−1 ,可以加速 SGD, 并且抑制震荡。

    当我们将一个小球从山上滚下来时,没有阻力的话,它的动量会越来越大,但是如果遇到了阻力,速度就会变小。 加入的这一项,可以使得梯度方向不变的维度上速度变快,梯度方向有所改变的维度上的更新速度变慢,这样就可以加快收敛并减小震荡。

    一般将参数设为0.5,0.9,或者0.99,分别表示最大速度2倍,10倍,100倍于SGD的算法。

    缺点: 

    这种情况相当于小球从山上滚下来时是在盲目地沿着坡滚,如果它能具备一些先知,例如快要上坡时,就知道需要减速了的话,适应性会更好。

    5. Nesterov accelerated gradient 牛顿动量

    1.Nesterov是Momentum的变种。

    2.与Momentum唯一区别就是,计算梯度的不同,Nesterov先用当前的速度v更新一遍参数,在用更新的临时参数计算梯度。临时更新的参数是未来下一步计算的参数。

    3.相当于添加了矫正因子的Momentum。

    4.在GD下,Nesterov将误差收敛从O(1/k),改进到O(1/k^2)

    5.然而在SGD下,Nesterov并没有任何改进

    用 θ−γv_t−1 来近似当做参数下一步会变成的值,则在计算梯度时,不是在当前位置,而是未来的位置上。

      vt = γ vt−1 + η∇θJ(θ − γvt−1)

      θ = θ − vt

    引入动量,改变了梯度:

    蓝色是 Momentum 的过程,会先计算当前的梯度,然后在更新后的累积梯度后会有一个大的跳跃。 而 NAG 会先在前一步的累积梯度上(brown vector)有一个大的跳跃,然后衡量一下梯度做一下修正(red vector),这种预期的更新可以避免我们走的太快。

    NAG 可以使 RNN 在很多任务上有更好的表现。目前为止,我们可以做到,在更新梯度时顺应 loss function 的梯度来调整速度,并且对 SGD 进行加速。我们还希望可以根据参数的重要性而对不同的参数进行不同程度的更新。

    6. Adagrad

    1.简单来讲,设置全局学习率之后,每次通过,全局学习率逐参数的除以历史梯度平方和的平方根,使得每个参数的学习率不同

    2.效果是:在参数空间更为平缓的方向,会取得更大的进步(因为平缓,所以历史梯度平方和较小,对应学习率下降的幅度较小)

    3.缺点是,使得学习率过早,过量的减少

    4.在某些模型上效果不错。

    超参数设定值: 一般 η 就取 0.01。

    其中 g 为:t 时刻参数 θ_i 的梯度

    7. Adadelta

    这个算法是对 Adagrad 的改进,和 Adagrad 相比,就是分母的 G 换成了过去的梯度平方的衰减平均值:

    8. RMSprop

    RMSprop 是 Geoff Hinton 提出的一种自适应学习率方法。

    RMSprop 和 Adadelta 都是为了解决 Adagrad 学习率急剧下降问题的。

    1.AdaGrad算法的改进。鉴于神经网络都是非凸条件下的,RMSProp在非凸条件下结果更好,改变梯度累积为指数衰减的移动平均以丢弃遥远的过去历史。

    2.经验上,RMSProp被证明有效且实用的深度学习网络优化算法。

    相比于AdaGrad的历史梯度: 

     这里写图片描述

    RMSProp增加了一个衰减系数来控制历史信息的获取多少: 

    这里写图片描述

    超参数设定值: 

    Hinton 建议设定 γ 为 0.9, 学习率 η 为 0.001。

    9. Adam

    1.Adam算法可以看做是修正后的Momentum+RMSProp算法

    2.动量直接并入梯度一阶矩估计中(指数加权)

    3.Adam通常被认为对超参数的选择相当鲁棒

    4.学习率建议为0.001

    超参数设定值: 

    建议 β1 = 0.9,β2 = 0.999,ϵ = 10e−8

    实践表明,Adam 比其他适应性学习方法效果要好。

    下面看一下几种算法在鞍点和等高线上的表现

    上面两种情况都可以看出,Adagrad, Adadelta, RMSprop 几乎很快就找到了正确的方向并前进,收敛速度也相当快,而其它方法要么很慢,要么走了很多弯路才找到。

    由图可知自适应学习率方法即 Adagrad, Adadelta, RMSprop, Adam 在这种情景下会更合适而且收敛性更好。

    如何选择

    如果数据是稀疏的,就用自适用方法,即 Adagrad, Adadelta, RMSprop, Adam。

    RMSprop, Adadelta, Adam 在很多情况下的效果是相似的。

    Adam 就是在 RMSprop 的基础上加了 bias-correction 和 momentum,

    随着梯度变的稀疏,Adam 比 RMSprop 效果会好。

    整体来讲,Adam 是最好的选择。

    很多论文里都会用 SGD,没有 momentum 等。SGD 虽然能达到极小值,但是比其它算法用的时间长,而且可能会被困在鞍点。

    如果需要更快的收敛,或者是训练更深更复杂的神经网络,需要用一种自适应的算法。

  • 相关阅读:
    Docker端口映射实现
    Docker容器访问控制
    Docker配置 DNS
    Docker快速配置指南
    Docker外部访问容器
    Docker容器如何互联
    Docker 备份、恢复、迁移数据卷
    19.30内置登录处理
    18.29SSM基础整合开发
    19.30内置登录处理
  • 原文地址:https://www.cnblogs.com/ChrisInsistPy/p/9510650.html
Copyright © 2020-2023  润新知