• Advanced Optimization


    基于凸优化和梯度下降优化算法,进一步展开阐述 :

    1. Momentum;
    2. AdaGrad;
    3. RMSProp;
    4. AdaDelta;
    5. Adam

    Momentum

    随机梯度下降中,我们提到,目标函数有关自变量的梯度代表了目标函数在自变量当前位置下降最快的方向。因此,梯度下降也叫作最陡下降(steepest descent)。在每次迭代中,梯度下降根据自变量当前位置,沿着当前位置的梯度更新自变量。然而,如果自变量的迭代方向仅仅取决于自变量当前位置,这可能会带来一些问题。对于noisy gradient,我们需要谨慎的选取学习率和batch size, 来控制梯度方差和收敛的结果。

    gt=w1BtiBtf(xi,wt1)=1BtiBtgi,t1. mathbf{g}_t = partial_{mathbf{w}} frac{1}{|mathcal{B}_t|} sum_{i in mathcal{B}_t} f(mathbf{x}_{i}, mathbf{w}_{t-1}) = frac{1}{|mathcal{B}_t|} sum_{i in mathcal{B}_t} mathbf{g}_{i, t-1}.

    An ill-conditioned Problem

    Condition Number of Hessian Matrix:

    condH=λmaxλmin cond_{H} = frac{lambda_{max}}{lambda_{min}}

    where λmax,λminlambda_{max}, lambda_{min} is the maximum amd minimum eignvalue of Hessian matrix.

    让我们考虑一个输入和输出分别为二维向量x=[x1,x2]oldsymbol{x} = [x_1, x_2]^ op和标量的目标函数:

    f(x)=0.1x12+2x22 f(oldsymbol{x})=0.1x_1^2+2x_2^2

    condH=40.2=20ill-conditioned cond_{H} = frac{4}{0.2} = 20 quad ightarrow quad ext{ill-conditioned}

    Supp: Preconditioning

    在二阶优化中,我们使用Hessian matrix的逆矩阵(或者pseudo inverse)来左乘梯度向量 i.e.Δx=H1gi.e. Delta_{x} = H^{-1}mathbf{g},这样的做法称为precondition,相当于将 HH 映射为一个单位矩阵,拥有分布均匀的Spectrum,也即我们去优化的等价标函数的Hessian matrix为良好的identity matrix。

    x12x_1^2系数从11减小到了0.10.1。下面实现基于这个目标函数的梯度下降,并展示使用学习率为0.40.4时自变量的迭代轨迹。

    %matplotlib inline
    import sys
    sys.path.append("path to file storge d2lzh1981") 
    import d2lzh1981 as d2l
    import torch
    
    eta = 0.4
    
    def f_2d(x1, x2):
        return 0.1 * x1 ** 2 + 2 * x2 ** 2
    
    def gd_2d(x1, x2, s1, s2):
        return (x1 - eta * 0.2 * x1, x2 - eta * 4 * x2, 0, 0)
    
    d2l.show_trace_2d(f_2d, d2l.train_2d(gd_2d))
    

    可以看到,同一位置上,目标函数在竖直方向(x2x_2轴方向)比在水平方向(x1x_1轴方向)的斜率的绝对值更大。因此,给定学习率,梯度下降迭代自变量时会使自变量在竖直方向比在水平方向移动幅度更大。那么,我们需要一个较小的学习率从而避免自变量在竖直方向上越过目标函数最优解。然而,这会造成自变量在水平方向上朝最优解移动变慢。

    接下来将学习率 etaeta 加大+++

    此时自变量在竖直方向不断越过最优解并逐渐发散。

    Solution to ill-condition

    • Preconditioning gradient vector: applied in Adam, RMSProp, AdaGrad, Adelta, KFC, Natural gradient and other secord-order optimization algorithms.
    • Averaging history gradient: like momentum, which allows larger learning rates to accelerate convergence; applied in Adam, RMSProp, SGD momentum.
    eta = 0.6
    d2l.show_trace_2d(f_2d, d2l.train_2d(gd_2d))
    

    Momentum Algorithm

    动量法的提出是为了解决梯度下降的上述问题。设时间步 tt 的自变量为 xtoldsymbol{x}_t,学习率为 ηteta_t
    在时间步 t=0t=0,动量法创建速度变量 m0oldsymbol{m}_0,并将其元素初始化成 0。在时间步 t>0t>0,动量法对每次迭代的步骤做如下修改:

    mtβmt1+ηtgt,xtxt1mt, egin{aligned} oldsymbol{m}_t &leftarrow eta oldsymbol{m}_{t-1} + eta_t oldsymbol{g}_t, \ oldsymbol{x}_t &leftarrow oldsymbol{x}_{t-1} - oldsymbol{m}_t, end{aligned}

    Another version:

    mtβmt1+(1β)gt,xtxt1αtmt, egin{aligned} oldsymbol{m}_t &leftarrow eta oldsymbol{m}_{t-1} + (1-eta) oldsymbol{g}_t, \ oldsymbol{x}_t &leftarrow oldsymbol{x}_{t-1} - alpha_t oldsymbol{m}_t, end{aligned}

    αt=ηt1β alpha_t = frac{eta_t}{1-eta}

    其中,动量超参数 βeta满足 0β<10 leq eta < 1。当 β=0eta=0 时,动量法等价于小批量随机梯度下降。

    利用梯度下降在使用动量法后的迭代轨迹更加方便理解数学推导

    def momentum_2d(x1, x2, v1, v2):
        v1 = beta * v1 + eta * 0.2 * x1
        v2 = beta * v2 + eta * 4 * x2
        return x1 - v1, x2 - v2, v1, v2
    
    eta, beta = 0.4, 0.5
    d2l.show_trace_2d(f_2d, d2l.train_2d(momentum_2d))
    

    可以看到使用较小的学习率 η=0.4eta=0.4 和动量超参数 β=0.5eta=0.5 时,动量法在竖直方向上的移动更加平滑,且在水平方向上更快逼近最优解。下面使用较大的学习率 η=0.6eta=0.6,此时自变量也不再发散。

    eta = 0.6
    d2l.show_trace_2d(f_2d, d2l.train_2d(momentum_2d))
    

    Exponential Moving Average

    从数学上理解动量法


    指数加权移动平均(exponential moving average)

    给定超参数 0β<10 leq eta < 1,当前时间步 tt 的变量 yty_t 是上一时间步 t1t-1 的变量 yt1y_{t-1} 和当前时间步另一变量 xtx_t 的线性组合:

    yt=βyt1+(1β)xt. y_t = eta y_{t-1} + (1-eta) x_t.

    我们可以对 yty_t 展开:

    yt=(1β)xt+βyt1=(1β)xt+(1β)βxt1+β2yt2=(1β)xt+(1β)βxt1+(1β)β2xt2+β3yt3=(1β)i=0tβixti egin{aligned} y_t &= (1-eta) x_t + eta y_{t-1}\ &= (1-eta)x_t + (1-eta) cdot eta x_{t-1} + eta^2y_{t-2}\ &= (1-eta)x_t + (1-eta) cdot eta x_{t-1} + (1-eta) cdot eta^2x_{t-2} + eta^3y_{t-3}\ &= (1-eta) sum_{i=0}^{t} eta^{i}x_{t-i} end{aligned}

    (1β)i=0tβi=1βt1β(1β)=(1βt) (1-eta)sum_{i=0}^{t} eta^{i} = frac{1-eta^{t}}{1-eta} (1-eta) = (1-eta^{t})

    Supp Approximate

    Average of 11βfrac{1}{1-eta} Steps

    n=1/(1β)n = 1/(1-eta),那么 (11/n)n=β1/(1β)left(1-1/n ight)^n = eta^{1/(1-eta)}。因为

    limn(11n)n=exp(1)0.3679, lim_{n ightarrow infty} left(1-frac{1}{n} ight)^n = exp(-1) approx 0.3679,

    所以当 β1eta ightarrow 1时,β1/(1β)=exp(1)eta^{1/(1-eta)}=exp(-1),如 0.9520exp(1)0.95^{20} approx exp(-1)。如果把 exp(1)exp(-1) 当作一个比较小的数,我们可以在近似中忽略所有含 β1/(1β)eta^{1/(1-eta)} 和比 β1/(1β)eta^{1/(1-eta)} 更高阶的系数的项。例如,当 β=0.95eta=0.95 时,

    yt0.05i=0190.95ixti. y_t approx 0.05 sum_{i=0}^{19} 0.95^i x_{t-i}.

    因此,在实际中,我们常常将 yty_t 看作是对最近 1/(1β)1/(1-eta) 个时间步的 xtx_t 值的加权平均。例如,当 γ=0.95gamma = 0.95 时,yty_t 可以被看作对最近20个时间步的 xtx_t 值的加权平均;当 β=0.9eta = 0.9 时,yty_t 可以看作是对最近10个时间步的 xtx_t 值的加权平均。而且,离当前时间步 tt 越近的 xtx_t 值获得的权重越大(越接近1)。


    由指数加权移动平均理解动量法

    现在,我们对动量法的速度变量做变形:

    mtβmt1+(1β)(ηt1βgt). oldsymbol{m}_t leftarrow eta oldsymbol{m}_{t-1} + (1 - eta) left(frac{eta_t}{1 - eta} oldsymbol{g}_t ight).

    Another version:

    mtβmt1+(1β)gt. oldsymbol{m}_t leftarrow eta oldsymbol{m}_{t-1} + (1 - eta) oldsymbol{g}_t.

    xtxt1αtmt, egin{aligned} oldsymbol{x}_t &leftarrow oldsymbol{x}_{t-1} - alpha_t oldsymbol{m}_t, end{aligned}

    αt=ηt1β alpha_t = frac{eta_t}{1-eta}

    由指数加权移动平均的形式可得,速度变量 vtoldsymbol{v}_t 实际上对序列 {ηtigti/(1β):i=0,,1/(1β)1}{eta_{t-i}oldsymbol{g}_{t-i} /(1-eta):i=0,ldots,1/(1-eta)-1} 做了指数加权移动平均。换句话说,相比于小批量随机梯度下降,动量法在每个时间步的自变量更新量近似于将前者对应的最近 1/(1β)1/(1-eta) 个时间步的更新量做了指数加权移动平均后再除以 1β1-eta。所以,在动量法中,自变量在各个方向上的移动幅度不仅取决当前梯度,还取决于过去的各个梯度在各个方向上是否一致。在本节之前示例的优化问题中,所有梯度在水平方向上为正(向右),而在竖直方向上时正(向上)时负(向下)。这样,我们就可以使用较大的学习率,从而使自变量向最优解更快移动。

    Implement

    相对于小批量随机梯度下降,动量法需要对每一个自变量维护一个同它一样形状的速度变量,且超参数里多了动量超参数。实现中,我们将速度变量用更广义的状态变量states表示。

    def get_data_ch7():  
        data = np.genfromtxt('/home/kesci/input/airfoil4755/airfoil_self_noise.dat', delimiter='	')
        data = (data - data.mean(axis=0)) / data.std(axis=0)
        return torch.tensor(data[:1500, :-1], dtype=torch.float32), 
            torch.tensor(data[:1500, -1], dtype=torch.float32)
    
    features, labels = get_data_ch7()
    
    def init_momentum_states():
        v_w = torch.zeros((features.shape[1], 1), dtype=torch.float32)
        v_b = torch.zeros(1, dtype=torch.float32)
        return (v_w, v_b)
    
    def sgd_momentum(params, states, hyperparams):
        for p, v in zip(params, states):
            v.data = hyperparams['momentum'] * v.data + hyperparams['lr'] * p.grad.data
            p.data -= v.data
    

    令 momentum = 0.5

    d2l.train_ch7(sgd_momentum, init_momentum_states(),
                  {'lr': 0.02, 'momentum': 0.5}, features, labels)
    

    令 momentum = 0.9

    d2l.train_ch7(sgd_momentum, init_momentum_states(),
                  {'lr': 0.02, 'momentum': 0.9}, features, labels)
    

    可见目标函数值在后期迭代过程中的变化不够平滑。直觉上,10倍小批量梯度比2倍小批量梯度大了5倍,我们可以试着将学习率减小到原来的1/5。此时目标函数值在下降了一段时间后变化更加平滑。

    d2l.train_ch7(sgd_momentum, init_momentum_states(),
                  {'lr': 0.004, 'momentum': 0.9}, features, labels)
    

    Pytorch Class

    在Pytorch中,torch.optim.SGD 已实现了Momentum

    d2l.train_pytorch_ch7(torch.optim.SGD, {'lr': 0.004, 'momentum': 0.9},
                        features, labels)
    

    AdaGrad

    在之前介绍过的优化算法中,目标函数自变量的每一个元素在相同时间步都使用同一个学习率来自我迭代。举个例子,假设目标函数为ff,自变量为一个二维向量[x1,x2][x_1, x_2]^ op,该向量中每一个元素在迭代时都使用相同的学习率。例如,在学习率为ηeta的梯度下降中,元素x1x_1x2x_2都使用相同的学习率ηeta来自我迭代:

    x1x1ηfx1,x2x2ηfx2. x_1 leftarrow x_1 - eta frac{partial{f}}{partial{x_1}}, quad x_2 leftarrow x_2 - eta frac{partial{f}}{partial{x_2}}.

    动量法中当 x1x_1x2x_2 的梯度值有较大差别时,需要选择足够小的学习率使得自变量在梯度值较大的维度上不发散。但这样会导致自变量在梯度值较小的维度上迭代过慢。

    动量法依赖指数加权移动平均使得自变量的更新方向更加一致,从而降低发散的可能。

    AdaGrad 算法,它根据自变量在每个维度的梯度值的大小来调整各个维度上的学习率,从而避免统一的学习率难以适应所有维度的问题 。

    Algorithm

    AdaGrad算法会使用一个小批量随机梯度 gtoldsymbol{g}_t 按元素平方的累加变量stoldsymbol{s}_t。在时间步0,AdaGrad将 s0oldsymbol{s}_0 中每个元素初始化为0。在时间步tt,首先将小批量随机梯度gtoldsymbol{g}_t按元素平方后累加到变量stoldsymbol{s}_t

    stst1+gtgt, oldsymbol{s}_t leftarrow oldsymbol{s}_{t-1} + oldsymbol{g}_t odot oldsymbol{g}_t,

    其中odot是按元素相乘。接着,我们将目标函数自变量中每个元素的学习率通过按元素运算重新调整一下:

    xtxt1ηst+ϵgt, oldsymbol{x}_t leftarrow oldsymbol{x}_{t-1} - frac{eta}{sqrt{oldsymbol{s}_t + epsilon}} odot oldsymbol{g}_t,

    其中ηeta是学习率,ϵepsilon是为了维持数值稳定性而添加的常数,如10610^{-6}。这里开方、除法和乘法的运算都是按元素运算的。这些按元素运算使得目标函数自变量中每个元素都分别拥有自己的学习率。

    Feature

    需要强调的是,小批量随机梯度按元素平方的累加变量stoldsymbol{s}_t出现在学习率的分母项中。

    • 因此,如果目标函数有关自变量中某个元素的偏导数一直都较大,那么该元素的学习率将下降较快;

    • 反之,如果目标函数有关自变量中某个元素的偏导数一直都较小,那么该元素的学习率将下降较慢。

    • 然而,由于stoldsymbol{s}_t一直在累加按元素平方的梯度,自变量中每个元素的学习率在迭代过程中一直在降低(或不变)。

    • 所以,当学习率在迭代早期降得较快且当前解依然不佳时,AdaGrad算法在迭代后期由于学习率过小,可能较难找到一个有用的解。

    下面我们仍然以目标函数f(x)=0.1x12+2x22f(oldsymbol{x})=0.1x_1^2+2x_2^2为例观察AdaGrad算法对自变量的迭代轨迹。我们实现AdaGrad算法并使用和上一节实验中相同的学习率0.4。可以看到,自变量的迭代轨迹较平滑。但由于stoldsymbol{s}_t的累加效果使学习率不断衰减,自变量在迭代后期的移动幅度较小。

    %matplotlib inline
    import math
    import torch
    import sys
    sys.path.append("path to file storge d2lzh1981") 
    import d2lzh1981 as d2l
    
    def adagrad_2d(x1, x2, s1, s2):
        g1, g2, eps = 0.2 * x1, 4 * x2, 1e-6  # 前两项为自变量梯度
        s1 += g1 ** 2
        s2 += g2 ** 2
        x1 -= eta / math.sqrt(s1 + eps) * g1
        x2 -= eta / math.sqrt(s2 + eps) * g2
        return x1, x2, s1, s2
    
    def f_2d(x1, x2):
        return 0.1 * x1 ** 2 + 2 * x2 ** 2
    
    eta = 0.4
    d2l.show_trace_2d(f_2d, d2l.train_2d(adagrad_2d))
    

    下面将学习率增大到2。可以看到自变量更为迅速地逼近了最优解

    eta = 2
    d2l.show_trace_2d(f_2d, d2l.train_2d(adagrad_2d))
    

    Implement

    同动量法一样,AdaGrad算法需要对每个自变量维护同它一样形状的状态变量。我们根据AdaGrad算法中的公式实现该算法。

    def get_data_ch7():  
        data = np.genfromtxt('path to airfoil_self_noise.dat', delimiter='	')
        data = (data - data.mean(axis=0)) / data.std(axis=0)
        return torch.tensor(data[:1500, :-1], dtype=torch.float32), 
            torch.tensor(data[:1500, -1], dtype=torch.float32)
            
    features, labels = get_data_ch7()
    
    def init_adagrad_states():
        s_w = torch.zeros((features.shape[1], 1), dtype=torch.float32)
        s_b = torch.zeros(1, dtype=torch.float32)
        return (s_w, s_b)
    
    def adagrad(params, states, hyperparams):
        eps = 1e-6
        for p, s in zip(params, states):
            s.data += (p.grad.data**2)
            p.data -= hyperparams['lr'] * p.grad.data / torch.sqrt(s + eps)
    

    增大学习率

    d2l.train_ch7(adagrad, init_adagrad_states(), {'lr': 0.1}, features, labels)
    

    Pytorch Class

    通过名称为 “adagrad” 的 Trainer 实例,我们便可使用 Pytorch 提供的 AdaGrad 算法来训练模型

    d2l.train_pytorch_ch7(torch.optim.Adagrad, {'lr': 0.1}, features, labels)
    

    RMSProp

    “AdaGrad算法”中因为调整学习率时分母上的变量 stoldsymbol{s}_t 一直在累加按元素平方的小批量随机梯度,所以目标函数自变量每个元素的学习率在迭代过程中一直在降低(或不变)。因此,当学习率在迭代早期降得较快且当前解依然不佳时,AdaGrad算法在迭代后期由于学习率过小,可能较难找到一个有用的解。为了解决这一问题,RMSProp算法对AdaGrad算法做了修改。该算法源自Coursera上的一门课程,即“机器学习的神经网络”。

    Algorithm

    我们在“动量法”一节里介绍过指数加权移动平均。不同于AdaGrad算法里状态变量stoldsymbol{s}_t是截至时间步tt所有小批量随机梯度gtoldsymbol{g}_t按元素平方和,RMSProp算法将这些梯度按元素平方做指数加权移动平均。具体来说,给定超参数0γ00 leq gamma 0计算

    vtβvt1+(1β)gtgt. oldsymbol{v}_t leftarrow eta oldsymbol{v}_{t-1} + (1 - eta) oldsymbol{g}_t odot oldsymbol{g}_t.

    和AdaGrad算法一样,RMSProp算法将目标函数自变量中每个元素的学习率通过按元素运算重新调整,然后更新自变量

    xtxt1αvt+ϵgt, oldsymbol{x}_t leftarrow oldsymbol{x}_{t-1} - frac{alpha}{sqrt{oldsymbol{v}_t + epsilon}} odot oldsymbol{g}_t,

    其中ηeta是学习率,ϵepsilon是为了维持数值稳定性而添加的常数,如10610^{-6}。因为RMSProp算法的状态变量stoldsymbol{s}_t是对平方项gtgtoldsymbol{g}_t odot oldsymbol{g}_t的指数加权移动平均,所以可以看作是最近1/(1β)1/(1-eta)个时间步的小批量随机梯度平方项的加权平均。如此一来,自变量每个元素的学习率在迭代过程中就不再一直降低(或不变)。

    照例,让我们先观察RMSProp算法对目标函数f(x)=0.1x12+2x22f(oldsymbol{x})=0.1x_1^2+2x_2^2中自变量的迭代轨迹。回忆在“AdaGrad算法”中使用的学习率为0.4的AdaGrad算法,自变量在迭代后期的移动幅度较小。但在同样的学习率下,RMSProp算法可以更快逼近最优解。

    %matplotlib inline
    import math
    import torch
    import sys
    sys.path.append("path to file storge d2lzh1981") 
    import d2lzh1981 as d2l
    
    def rmsprop_2d(x1, x2, s1, s2):
        g1, g2, eps = 0.2 * x1, 4 * x2, 1e-6
        s1 = beta * s1 + (1 - beta) * g1 ** 2
        s2 = beta * s2 + (1 - beta) * g2 ** 2
        x1 -= alpha / math.sqrt(s1 + eps) * g1
        x2 -= alpha / math.sqrt(s2 + eps) * g2
        return x1, x2, s1, s2
    
    def f_2d(x1, x2):
        return 0.1 * x1 ** 2 + 2 * x2 ** 2
    
    alpha, beta = 0.4, 0.9
    d2l.show_trace_2d(f_2d, d2l.train_2d(rmsprop_2d))
    

    Implement

    接下来按照RMSProp算法中的公式实现该算法。

    def get_data_ch7():  
        data = np.genfromtxt('path to airfoil_self_noise.dat', delimiter='	')
        data = (data - data.mean(axis=0)) / data.std(axis=0)
        return torch.tensor(data[:1500, :-1], dtype=torch.float32), 
            torch.tensor(data[:1500, -1], dtype=torch.float32)
            
    features, labels = get_data_ch7()
    
    def init_rmsprop_states():
        s_w = torch.zeros((features.shape[1], 1), dtype=torch.float32)
        s_b = torch.zeros(1, dtype=torch.float32)
        return (s_w, s_b)
    
    def rmsprop(params, states, hyperparams):
        gamma, eps = hyperparams['beta'], 1e-6
        for p, s in zip(params, states):
            s.data = gamma * s.data + (1 - gamma) * (p.grad.data)**2
            p.data -= hyperparams['lr'] * p.grad.data / torch.sqrt(s + eps)
    

    我们将初始学习率设为0.01,并将超参数γgamma设为0.9。此时,变量stoldsymbol{s}_t可看作是最近1/(10.9)=101/(1-0.9) = 10个时间步的平方项gtgtoldsymbol{g}_t odot oldsymbol{g}_t的加权平均。

    d2l.train_ch7(rmsprop, init_rmsprop_states(), {'lr': 0.01, 'beta': 0.9},
                  features, labels)
    

    Pytorch Class

    通过名称为“rmsprop”的Trainer实例,我们便可使用Gluon提供的RMSProp算法来训练模型。注意,超参数γgamma通过gamma1指定。

    d2l.train_pytorch_ch7(torch.optim.RMSprop, {'lr': 0.01, 'alpha': 0.9},
                        features, labels)
    

    AdaDelta

    除了RMSProp算法以外,另一个常用优化算法AdaDelta算法也针对AdaGrad算法在迭代后期可能较难找到有用解的问题做了改进 .

    AdaDelta算法没有学习率这一超参数。

    Algorithm

    AdaDelta算法也像RMSProp算法一样,使用了小批量随机梯度gtoldsymbol{g}_t按元素平方的指数加权移动平均变量stoldsymbol{s}_t。在时间步0,它的所有元素被初始化为0。给定超参数0ρ00 leq ho 0,同RMSProp算法一样计算

    stρst1+(1ρ)gtgt. oldsymbol{s}_t leftarrow ho oldsymbol{s}_{t-1} + (1 - ho) oldsymbol{g}_t odot oldsymbol{g}_t.

    与RMSProp算法不同的是,AdaDelta算法还维护一个额外的状态变量ΔxtDeltaoldsymbol{x}_t,其元素同样在时间步0时被初始化为0。我们使用Δxt1Deltaoldsymbol{x}_{t-1}来计算自变量的变化量:

    gtΔxt1+ϵst+ϵgt, oldsymbol{g}_t' leftarrow sqrt{frac{Deltaoldsymbol{x}_{t-1} + epsilon}{oldsymbol{s}_t + epsilon}} odot oldsymbol{g}_t,

    其中ϵepsilon是为了维持数值稳定性而添加的常数,如10510^{-5}。接着更新自变量:

    xtxt1gt. oldsymbol{x}_t leftarrow oldsymbol{x}_{t-1} - oldsymbol{g}'_t.

    最后,我们使用ΔxtDeltaoldsymbol{x}_t来记录自变量变化量gtoldsymbol{g}'_t按元素平方的指数加权移动平均:

    ΔxtρΔxt1+(1ρ)gtgt. Deltaoldsymbol{x}_t leftarrow ho Deltaoldsymbol{x}_{t-1} + (1 - ho) oldsymbol{g}'_t odot oldsymbol{g}'_t.

    可以看到,如不考虑ϵepsilon的影响,AdaDelta算法与RMSProp算法的不同之处在于使用Δxt1sqrt{Deltaoldsymbol{x}_{t-1}}来替代超参数ηeta

    Implement

    AdaDelta算法需要对每个自变量维护两个状态变量,即stoldsymbol{s}_tΔxtDeltaoldsymbol{x}_t。我们按AdaDelta算法中的公式实现该算法。

    def init_adadelta_states():
        s_w, s_b = torch.zeros((features.shape[1], 1), dtype=torch.float32), torch.zeros(1, dtype=torch.float32)
        delta_w, delta_b = torch.zeros((features.shape[1], 1), dtype=torch.float32), torch.zeros(1, dtype=torch.float32)
        return ((s_w, delta_w), (s_b, delta_b))
    
    def adadelta(params, states, hyperparams):
        rho, eps = hyperparams['rho'], 1e-5
        for p, (s, delta) in zip(params, states):
            s[:] = rho * s + (1 - rho) * (p.grad.data**2)
            g =  p.grad.data * torch.sqrt((delta + eps) / (s + eps))
            p.data -= g
            delta[:] = rho * delta + (1 - rho) * g * g
    d2l.train_ch7(adadelta, init_adadelta_states(), {'rho': 0.9}, features, labels)
    

    Pytorch Class

    通过名称为 “adadelta” 的 Traine r实例,我们便可使用 pytorch 提供的 AdaDelta 算法。它的超参数可以通过 rho 来指定。

    d2l.train_pytorch_ch7(torch.optim.Adadelta, {'rho': 0.9}, features, labels)
    

    Adam

    相当于是RMSProp算法动量算法的结合

    RMSProp算法
    +
    对小批量随机梯度也做了指数加权移动平均
    ||
    Adam

    Algorithm

    Adam算法使用了动量变量mtoldsymbol{m}_t和RMSProp算法中小批量随机梯度按元素平方的指数加权移动平均变量vtoldsymbol{v}_t,并在时间步0将它们中每个元素初始化为0。给定超参数0β1<10 leq eta_1 < 1(算法作者建议设为0.9),时间步tt的动量变量mtoldsymbol{m}_t即小批量随机梯度gtoldsymbol{g}_t的指数加权移动平均:

    mtβ1mt1+(1β1)gt. oldsymbol{m}_t leftarrow eta_1 oldsymbol{m}_{t-1} + (1 - eta_1) oldsymbol{g}_t.

    和RMSProp算法中一样,给定超参数0β2<10 leq eta_2 < 1(算法作者建议设为0.999),
    将小批量随机梯度按元素平方后的项gtgtoldsymbol{g}_t odot oldsymbol{g}_t做指数加权移动平均得到vtoldsymbol{v}_t

    vtβ2vt1+(1β2)gtgt. oldsymbol{v}_t leftarrow eta_2 oldsymbol{v}_{t-1} + (1 - eta_2) oldsymbol{g}_t odot oldsymbol{g}_t.

    由于我们将m0oldsymbol{m}_0s0oldsymbol{s}_0中的元素都初始化为0,
    在时间步tt我们得到mt=(1β1)i=1tβ1tigioldsymbol{m}_t = (1-eta_1) sum_{i=1}^t eta_1^{t-i} oldsymbol{g}_i。将过去各时间步小批量随机梯度的权值相加,得到 (1β1)i=1tβ1ti=1β1t(1-eta_1) sum_{i=1}^t eta_1^{t-i} = 1 - eta_1^t。需要注意的是,当tt较小时,过去各时间步小批量随机梯度权值之和会较小。例如,当β1=0.9eta_1 = 0.9时,m1=0.1g1oldsymbol{m}_1 = 0.1oldsymbol{g}_1。为了消除这样的影响,对于任意时间步tt,我们可以将mtoldsymbol{m}_t再除以1β1t1 - eta_1^t,从而使过去各时间步小批量随机梯度权值之和为1。这也叫作偏差修正。在Adam算法中,我们对变量mtoldsymbol{m}_tvtoldsymbol{v}_t均作偏差修正:

    m^tmt1β1t, hat{oldsymbol{m}}_t leftarrow frac{oldsymbol{m}_t}{1 - eta_1^t},

    v^tvt1β2t. hat{oldsymbol{v}}_t leftarrow frac{oldsymbol{v}_t}{1 - eta_2^t}.

    接下来,Adam算法使用以上偏差修正后的变量m^that{oldsymbol{m}}_tm^that{oldsymbol{m}}_t,将模型参数中每个元素的学习率通过按元素运算重新调整:

    gtηm^tv^t+ϵ, oldsymbol{g}_t' leftarrow frac{eta hat{oldsymbol{m}}_t}{sqrt{hat{oldsymbol{v}}_t} + epsilon},

    其中ηeta是学习率,ϵepsilon是为了维持数值稳定性而添加的常数,如10810^{-8}。和AdaGrad算法、RMSProp算法以及AdaDelta算法一样,目标函数自变量中每个元素都分别拥有自己的学习率。最后,使用gtoldsymbol{g}_t'迭代自变量:

    xtxt1gt. oldsymbol{x}_t leftarrow oldsymbol{x}_{t-1} - oldsymbol{g}_t'.

    Implement

    我们按照Adam算法中的公式实现该算法。其中时间步tt通过 hyperparams 参数传入 adam 函数

    %matplotlib inline
    import torch
    import sys
    sys.path.append("path to file storge d2lzh1981") 
    import d2lzh1981 as d2l
    
    def get_data_ch7():  
        data = np.genfromtxt('path to airfoil_self_noise.dat', delimiter='	')
        data = (data - data.mean(axis=0)) / data.std(axis=0)
        return torch.tensor(data[:1500, :-1], dtype=torch.float32), 
            torch.tensor(data[:1500, -1], dtype=torch.float32)
            
    features, labels = get_data_ch7()
    
    def init_adam_states():
        v_w, v_b = torch.zeros((features.shape[1], 1), dtype=torch.float32), torch.zeros(1, dtype=torch.float32)
        s_w, s_b = torch.zeros((features.shape[1], 1), dtype=torch.float32), torch.zeros(1, dtype=torch.float32)
        return ((v_w, s_w), (v_b, s_b))
    
    def adam(params, states, hyperparams):
        beta1, beta2, eps = 0.9, 0.999, 1e-6
        for p, (v, s) in zip(params, states):
            v[:] = beta1 * v + (1 - beta1) * p.grad.data
            s[:] = beta2 * s + (1 - beta2) * p.grad.data**2
            v_bias_corr = v / (1 - beta1 ** hyperparams['t'])
            s_bias_corr = s / (1 - beta2 ** hyperparams['t'])
            p.data -= hyperparams['lr'] * v_bias_corr / (torch.sqrt(s_bias_corr) + eps)
        hyperparams['t'] += 1
    
    d2l.train_ch7(adam, init_adam_states(), {'lr': 0.01, 't': 1}, features, labels)
    

    Pytorch Class

    d2l.train_pytorch_ch7(torch.optim.Adam, {'lr': 0.01}, features, labels)
    
    让对手感动,让对手恐惧
  • 相关阅读:
    IP fragmentation
    pci驱动
    cpu地址空间
    CentOS7 安装bazel
    kettle集群
    TextRankGloVe算法资料
    使用Kong Service负载均衡Load Balance功能
    自建ss服务器教程
    OpenSSL创建TLS/SSL证书
    监控告警
  • 原文地址:https://www.cnblogs.com/RokoBasilisk/p/12381109.html
Copyright © 2020-2023  润新知