• TensorFlow 2.0 笔记(二)神经网络优化


    第二章 神经网络优化

    1 神经网络复杂度

    NN复杂度:多用NN层数和NN参数的个数表示

    1.1 时间复杂度

    即模型的运算次数,可用浮点运算次数(FPLOPs, FLoating-point OPerations)或者乘加运算次数衡
    量.

    1.2 空间复杂度

    空间复杂度(访存量),严格来讲包括两部分:总参数量 + 各层输出特征图。

    • 参数量:模型所有带参数的层的权重参数总量;
    • 特征图:模型在实时运行过程中每层所计算出的输出特征图大小。

    image-20220419125035339

    2 学习率策略

    image-20220419130122549

    2.1 指数衰减

    TensorFlow API: tf.keras.optimizers.schedules.ExponentialDecay

    TensorFlow笔记2

    image-20220419125945365

    其中,learning_rate是初始学习率,decay_rate是衰减率,global_step表示从0到当前的训练次数,decay_steps用来控制衰减速度。

    指数衰减学习率是先使用较大的学习率来快速得到一个较优的解,然后随着迭代的继续,逐步减小学习率,使得模型在训练后期 更加稳定。指数型学习率衰减法是最常用的衰减方法,在大量模型中都广泛使用。

    import tensorflow as tf
    
    w = tf.Variable(tf.constant(5, dtype=tf.float32))
    
    epoch = 40
    LR_BASE = 0.2  # 最初学习率
    LR_DECAY = 0.99  # 学习率衰减率
    LR_STEP = 1  # 喂入多少轮BATCH_SIZE后,更新一次学习率
    
    for epoch in range(epoch):  # for epoch 定义顶层循环,表示对数据集循环epoch次,此例数据集数据仅有1个w,初始化时候constant赋值为5,循环100次迭代。
        lr = LR_BASE * LR_DECAY ** (epoch / LR_STEP)
        with tf.GradientTape() as tape:  # with结构到grads框起了梯度的计算过程。
            loss = tf.square(w + 1)
        grads = tape.gradient(loss, w)  # .gradient函数告知谁对谁求导
    
        w.assign_sub(lr * grads)  # .assign_sub 对变量做自减 即:w -= lr*grads 即 w = w - lr*grads
        print("After %s epoch,w is %f,loss is %f,lr is %f" % (epoch, w.numpy(), loss, lr))
    

    2.2 分段常数衰减

    TensorFlow API: tf.optimizers.schedules.PiecewiseConstantDecay

    TensorFlow笔记21

    分段常数衰减可以让调试人员针对不同任务设置不同的学习率,进行精细调参,在任意步长后下降
    任意数值的learning rate,要求调试人员对模型和数据集有深刻认识.

    3 激活函数

    激活函数是用来加入非线性因素的,因为线性模型的表达能力不够。引入非线性激活函数,可使深
    层神经网络的表达能力更加强大。

    优秀的激活函数应满足:

    • 非线性: 激活函数非线性时,多层神经网络可逼近所有函数
    • 可微性: 优化器大多用梯度下降更新参数
    • 单调性: 当激活函数是单调的,能保证单层网络的损失函数是凸函数
    • 近似恒等性: . 当参数初始化为随机小值时,神经网络更稳定

    激活函数输出值的范围:

    • 激活函数输出为有限值时,基于梯度的优化方法更稳定
    • 激活函数输出为无限值时,建议调小学习率

    常见的激活函数有:sigmoid,tanh,ReLU,Leaky ReLU,PReLU,RReLU,
    ELU(Exponential Linear Units),softplus,softsign,softmax等,下面介绍几个典型的激活
    函数:

    3.1 sigmoid

    image-20220419130830774

    image-20220419130849807

    TensorFlow API: tf.math.sigmoid

    优点

    1. 输出映射在(0,1)之间,单调连续,输出范围有限,优化稳定,可用作输出层;
    2. 求导容易。

    缺点

    1. 易造成梯度消失;
    2. 输出非0均值,收敛慢;
    3. 幂运算复杂,训练时间长。

    ​ sigmoid函数可应用在训练过程中。然而,当处理分类问题作出输出时,sigmoid却无能为力。简单地说,sigmoid函数只能处理两个类,不适用于多分类问题。而softmax可以有效解决这个问题,并且softmax函数大都运用在神经网路中的最后一层网络中,使得值得区间在(0,1)之间,而不是二分类的。

    3.2 tanh

    img

    image-20220419131104244

    TensorFlow API:tf.math.tanh

    优点:

    ​ 1.比sigmoid函数收敛速度更快。

    ​ 2.相比sigmoid函数,其输出以0为中心。

    缺点:

    ​ 1.易造成梯度消失;

    ​ 2.幂运算复杂,训练时间长。

    3.3 ReLU

    image-20210622090004313

    image-20210622090012250

    image-20210622090022996

    TensorFlow API: tf.nn.relu

    优点

    1. 解决了梯度消失问题(在正区间);
    2. 只需判断输入是否大于0,计算速度快;
    3. 收敛速度远快于sigmoid和tanh,因为sigmoid和tanh涉及很多expensive的操作;
    4. 提供了神经网络的稀疏表达能力。

    缺点

    1. 输出非0均值,收敛慢;
    2. Dead ReLU问题:某些神经元可能永远不会被激活,导致相应的参数永远不能被更新。

    3.4 Leaky ReLU

    image-20210622090210019

    image-20210622090218699

    TensorFlow API: tf.nn.leaky_relu

    ​ 理论上来讲,Leaky ReLU有ReLU的所有优点,外加不会有Dead ReLU问题,但是在实际操作当中,并没有完全证明Leaky ReLU总是好于ReLU。

    3.5 softmax

    image-20210622090303248

    TensorFlow API: tf.nn.softmax

    ​ 对神经网络全连接层输出进行变换,使其服从概率分布,即每个值都位于[0,1]区间且和为1。

    3.6 建议

    对于初学者的建议:

    1. 首选ReLU激活函数;
    2. 学习率设置较小值;
    3. 输入特征标准化,即让输入特征满足以0为均值,1为标准差的正态分布;
    4. 初始化问题:初始参数中心化,即让随机生成的参数满足以0为均值, image-20210622090509585为标准差的正态分布。

    4 损失函数

    神经网络模型的效果及优化的目标是通过损失函数来定义的。回归分类是监督学习中的两个大类。

    4.1 均方误差损失函数

    均方误差(Mean Square Error)是回归问题最常用的损失函数。回归问题解决的是对具体数值的预测,比如房价预测、销量预测等。这些问题需要预测的不是一个事先定义好的类别,而是一个任意实数。均方误差定义如下:

    image-20220419131742539

    其中\(y_i\)为一个batch中第i个数据的真实值,而\(y_i^{\prime}\)为神经网络的预测值。

    TensorFlow API:tf.keras.losses.MSE

    4.2 交叉熵损失函数

    交叉熵(Cross Entropy)表征两个概率分布之间的距离,交叉熵越小说明二者分布越接近,是分类问题中使用较广泛的损失函数。

    image-20220419131812037

    其中\(y\)_代表数据的真实值,\(y\) 代表神经网络的预测值。

    TensorFlow API:tf.keras.losses.categorical_crossentropy

    eg. 二分类已知答案y_=(1, 0) 预测y1=(0.6, 0.4) y2=(0.8, 0.2) 哪个更接近标准答案?

    H1((1,0),(0.6,0.4)) = -(1ln0.6 + 0ln0.4) ≈ -(-0.511 + 0) = 0.511

    H2((1,0),(0.8,0.2)) = -(1ln0.8 + 0ln0.2) ≈ -(-0.223 + 0) = 0.223

    因为H1> H2,所以y2预测更准

    import tensorflow as tf
    
    loss_ce1 = tf.losses.categorical_crossentropy([1, 0], [0.6, 0.4])
    loss_ce2 = tf.losses.categorical_crossentropy([1, 0], [0.8, 0.2])
    print("loss_ce1:", loss_ce1)
    print("loss_ce2:", loss_ce2)
    

    运行结果:

    loss_ce1: tf.Tensor(0.5108256, shape=(), dtype=float32)
    loss_ce2: tf.Tensor(0.22314353, shape=(), dtype=float32)
    

    对于多分类问题,神经网络的输出一般不是概率分布,因此需要引入softmax层,使得输出服从概率分布。

    输出先过softmax函数,再计算y与y_的交叉熵损失函数。

    TensorFlow中可计算交叉熵损失函数的API有:

    TensorFlow API:tf.nn.softmax_cross_entropy_with_logits

    TensorFlow API:tf.nn.sparse_softmax_cross_entropy_with_logits

    import tensorflow as tf
    import numpy as np
    
    y_ = np.array([[1, 0, 0], [0, 1, 0], [0, 0, 1], [1, 0, 0], [0, 1, 0]])
    y = np.array([[12, 3, 2], [3, 10, 1], [1, 2, 5], [4, 6.5, 1.2], [3, 6, 1]])
    y_pro = tf.nn.softmax(y)
    loss_ce1 = tf.losses.categorical_crossentropy(y_,y_pro)
    loss_ce2 = tf.nn.softmax_cross_entropy_with_logits(y_, y)
    
    print('分步计算的结果:\n', loss_ce1)
    print('结合计算的结果:\n', loss_ce2)
    

    输出的结果相同

    分步计算的结果:
    tf.Tensor([1.68795487e-04 1.03475622e-03 6.58839038e-02 2.58349207e+00 5.49852354e-02], shape=(5,), dtype=float64)
    结合计算的结果:
    tf.Tensor([1.68795487e-04 1.03475622e-03 6.58839038e-02 2.58349207e+00 5.49852354e-02], shape=(5,), dtype=float64)

    4.3 自定义损失函数

    image-20220419132047517

    根据具体任务和目的,可设计不同的损失函数。

    如:预测酸奶销量,酸奶成本(COST)1元,酸奶利润(PROFIT)99元。
    预测少了损失利润99元,大于预测多了损失成本1元。预测少了损失大,希望生成的预测函数往多了预测。

    import tensorflow as tf
    import numpy as np
    
    SEED = 23455
    COST = 1
    PROFIT = 99
    
    rdm = np.random.RandomState(SEED)
    x = rdm.rand(32, 2)
    y_ = [[x1 + x2 + (rdm.rand() / 10.0 - 0.05)] for (x1, x2) in x]  # 生成噪声[0,1)/10=[0,0.1); [0,0.1)-0.05=[-0.05,0.05)
    x = tf.cast(x, dtype=tf.float32)
    
    w1 = tf.Variable(tf.random.normal([2, 1], stddev=1, seed=1))
    
    epoch = 10000
    lr = 0.002
    
    for epoch in range(epoch):
        with tf.GradientTape() as tape:
            y = tf.matmul(x, w1)
            loss = tf.reduce_sum(tf.where(tf.greater(y, y_), (y - y_) * COST, (y_ - y) * PROFIT))
    
        grads = tape.gradient(loss, w1)
        w1.assign_sub(lr * grads)
    
        if epoch % 500 == 0:
            print("After %d training steps,w1 is " % (epoch))
            print(w1.numpy(), "\n")
    print("Final w1 is: ", w1.numpy())
    
    # 自定义损失函数
    # 酸奶成本1元, 酸奶利润99元
    # 成本很低,利润很高,人们希望多预测些,生成模型系数大于1,往多了预测
    

    我们可以得知损失函数的定义能极大影响模型预测效果。好的损失函数设计对于模型训练能够起到良好的引导作用。

    ​ 例如,我们可以看目标检测中的多种损失函数。目标检测的主要功能是定位和识别,损失函数的功 能主要就是让定位更精确,识别准确率更高。目标检测任务的损失函数由分类损失(Classificition Loss)和回归损失(Bounding Box Regeression Loss)两部分构成。近几年来回归损失主要有Smooth L1 Loss(2015), IoU Loss(2016 ACM), GIoU Loss(2019 CVPR), DIoU Loss & CIoU Loss(2020 AAAI)等,分类损失有交叉熵、softmax loss、logloss、focal loss等。在此由于篇幅原因不细究,有兴趣的同学可自行研究。主要是给大家一个感性的认知:需要针对特定的背景、具体的任务设计损失函数。

    5 欠拟合与过拟合

    5.1欠拟合的解决方法

    • 增加输入特征项
    • 增加网络参数
    • 减少正则化参数

    5.2 过拟合的解决方法

    • 数据清洗
    • 增大训练集
    • 采用正则化
    • 增大正则化参数

    5.3 正则化缓解过拟合

    image-20220419134212519

    没有引入L2正则化的分类,边界不圆润,产生了过拟合问题。

    image-20220419134457177

    添加L2正则化后:

    image-20220419140412595

    # 导入所需模块
    import tensorflow as tf
    from matplotlib import pyplot as plt
    import numpy as np
    import pandas as pd
    
    # 读入数据/标签 生成x_train y_train
    df = pd.read_csv('dot.csv')
    x_data = np.array(df[['x1', 'x2']])
    y_data = np.array(df['y_c'])
    
    x_train = x_data
    y_train = y_data.reshape(-1, 1)
    
    Y_c = [['red' if y else 'blue'] for y in y_train]
    
    # 转换x的数据类型,否则后面矩阵相乘时会因数据类型问题报错
    x_train = tf.cast(x_train, tf.float32)
    y_train = tf.cast(y_train, tf.float32)
    
    # from_tensor_slices函数切分传入的张量的第一个维度,生成相应的数据集,使输入特征和标签值一一对应
    train_db = tf.data.Dataset.from_tensor_slices((x_train, y_train)).batch(32)
    
    # 生成神经网络的参数,输入层为2个神经元,隐藏层为11个神经元,1层隐藏层,输出层为1个神经元
    # 用tf.Variable()保证参数可训练
    w1 = tf.Variable(tf.random.normal([2, 11]), dtype=tf.float32)
    b1 = tf.Variable(tf.constant(0.01, shape=[11]))
    
    w2 = tf.Variable(tf.random.normal([11, 1]), dtype=tf.float32)
    b2 = tf.Variable(tf.constant(0.01, shape=[1]))
    
    lr = 0.02  # 学习率为
    epoch = 400  # 循环轮数
    
    # 训练部分
    for epoch in range(epoch):
        for step, (x_train, y_train) in enumerate(train_db):
            with tf.GradientTape() as tape:  # 记录梯度信息
    
                h1 = tf.matmul(x_train, w1) + b1  # 记录神经网络乘加运算
                h1 = tf.nn.relu(h1)
                y = tf.matmul(h1, w2) + b2
    
                # 采用均方误差损失函数mse = mean(sum(y-out)^2)
                loss_mse = tf.reduce_mean(tf.square(y_train - y))
                # 添加l2正则化
                loss_regularization = []
                # tf.nn.l2_loss(w)=sum(w ** 2) / 2
                loss_regularization.append(tf.nn.l2_loss(w1))
                loss_regularization.append(tf.nn.l2_loss(w2))
                # 求和
                # 例:x=tf.constant(([1,1,1],[1,1,1]))
                #   tf.reduce_sum(x)
                # >>>6
                # loss_regularization = tf.reduce_sum(tf.stack(loss_regularization))
                loss_regularization = tf.reduce_sum(loss_regularization)
                loss = loss_mse + 0.03 * loss_regularization #REGULARIZER = 0.03
    
            # 计算loss对各个参数的梯度
            variables = [w1, b1, w2, b2]
            grads = tape.gradient(loss, variables)
    
            # 实现梯度更新
            # w1 = w1 - lr * w1_grad
            w1.assign_sub(lr * grads[0])
            b1.assign_sub(lr * grads[1])
            w2.assign_sub(lr * grads[2])
            b2.assign_sub(lr * grads[3])
    
        # 每200个epoch,打印loss信息
        if epoch % 20 == 0:
            print('epoch:', epoch, 'loss:', float(loss))
    
    # 预测部分
    print("*******predict*******")
    # xx在-3到3之间以步长为0.01,yy在-3到3之间以步长0.01,生成间隔数值点
    xx, yy = np.mgrid[-3:3:.1, -3:3:.1]
    # 将xx, yy拉直,并合并配对为二维张量,生成二维坐标点
    grid = np.c_[xx.ravel(), yy.ravel()]
    grid = tf.cast(grid, tf.float32)
    # 将网格坐标点喂入神经网络,进行预测,probs为输出
    probs = []
    for x_predict in grid:
        # 使用训练好的参数进行预测
        h1 = tf.matmul([x_predict], w1) + b1
        h1 = tf.nn.relu(h1)
        y = tf.matmul(h1, w2) + b2  # y为预测结果
        probs.append(y)
    
    # 取第0列给x1,取第1列给x2
    x1 = x_data[:, 0]
    x2 = x_data[:, 1]
    # probs的shape调整成xx的样子
    probs = np.array(probs).reshape(xx.shape)
    plt.scatter(x1, x2, color=np.squeeze(Y_c))
    # 把坐标xx yy和对应的值probs放入contour<[‘kɑntʊr]>函数,给probs值为0.5的所有点上色  plt点show后 显示的是红蓝点的分界线
    plt.contour(xx, yy, probs, levels=[.5])
    plt.show()
    
    # 读入红蓝点,画出分割线,包含正则化
    # 不清楚的数据,建议print出来查看 
    

    6 优化器

    优化算法可以分成一阶优化和二阶优化算法,其中一阶优化就是指的梯度算法及其变种,而二阶优化一般是用二阶导数(Hessian 矩阵)来计算,如牛顿法,由于需要计算Hessian阵和其逆矩阵,计算量较大,因此没有流行开来。这里主要总结一阶优化的各种梯度下降方法。

    深度学习优化算法经历了SGD -> SGDM -> NAG ->AdaGrad -> AdaDelta -> Adam -> Nadam
    这样的发展历程。

    image-20220419141050060

    一阶动量:与梯度相关的函数
    二阶动量:与梯度平方相关的函数

    6.1 SGD

    SGD 随机梯度下降

    TensorFlow API: tf.keras.optimizers.SGD

    6.1.1 vanilla SGD

    image-20210622103327886

    代码实现:

    # sgd
    w1.assign_sub(learning_rate * grads[0])
    b1.assign_sub(learning_rate * grads[1])
    

    6.1.2 SGD with Momentum

    动量法是一种使梯度向量向相关方向加速变化,抑制震荡,最终实现加速收敛的方法。
    (Momentum is a method that helps accelerate SGD in the right direction and dampens oscillations. It adds a fraction of the update vector of the past time step to the current update vector. The momentum term increases for dimensions whose gradients point in the same directions and reduces updates for dimensions whose gradients change directions.)

    为了抑制SGD的震荡,SGDM认为梯度下降过程可以加入惯性。下坡的时候,如果发现是陡坡,那就利用惯性跑的快一些。SGDM全称是SGD with Momentum,在SGD基础上引入了一阶动量:

    image-20220419144354864

    一阶动量是各个时刻梯度方向的指数移动平均值,约等于最近\(1/(1-\beta_1)\)个时刻的梯度向量和的平均值。也就是说,t 时刻的下降方向,不仅由当前点的梯度方向决定,而且由此前累积的下降方向决定。 \(\beta_1\)的经验值为0.9,这就意味着下降方向主要偏向此前累积的下降方向,并略微偏向当前时刻的下降方向。

    TensorFlow笔记2

    代码实现:

    # sgd-momentun 
    beta = 0.9
    m_w = beta * m_w + (1 - beta) * grads[0] 
    m_b = beta * m_b + (1 - beta) * grads[1] 
    w1.assign_sub(learning_rate * m_w) 
    b1.assign_sub(learning_rate * m_b)
    

    6.1.3 with Nesteroy Acceleration

    SGD 还有一个问题是会被困在一个局部最优点里。就像被一个小盆地周围的矮山挡住了视野,看
    不到更远的更深的沟壑。

    NAG全称Nesterov Accelerated Gradient,是在SGD、SGDM的基础上的进一步改进,改进点在于步骤1。我们知道在时刻t的主要下降方向是由累积动量决定的,自己的梯度方向说了也不算,那与其看当前梯度方向,不如先看看如果跟着累积动量走了一步,那个时候再怎么走。因此,NAG在步骤1不计算当前位置的梯度方向,而是计算如果按照累积动量走了一步,考虑这个新地方的梯度方向。此时的梯度就变成了:

    image-20220419144824274

    我们用这个梯度带入 SGDM 中计算 \(m_t\)的式子里去,然后再计算当前时刻应有的梯度并更新这一次的参数。
    其基本思路如下图(转自Hinton的Lecture slides):

    TensorFlow笔记2

    首先,按照原来的更新方向更新一步(棕色线),然后计算该新位置的梯度方向(红色线),然后用这个梯度方向修正最终的更新方向(绿色线)。上图中描述了两步的更新示意图,其中蓝色线是标准momentum更新路径。

    6.2 AdaGrad

    TensorFlow API: tf.keras.optimizers.Adagrad

    上述SGD算法一直存在一个超参数(Hyper-parameter),即学习率。超参数是训练前需要手动选择的参数,前缀“hyper”就是用于区别训练过程中可自动更新的参数。学习率可以理解为参数\(w\)沿着梯度\(g\)反方向变化的步长。

    SGD对所有的参数使用统一的、固定的学习率,一个自然的想法是对每个参数设置不同的学习率,然而在大型网络中这是不切实际的。因此,为解决此问题,AdaGrad算法被提出,其做法是给学习率一个缩放比例,从而达到了自适应学习率的效果(Ada = Adaptive)。

    其思想是:对于频繁更新的参数,不希望被单个样本影响太大,我们给它们很小的学习率;对于偶尔出现的参数,希望能多得到一些信息,我们给它较大的学习率。

    image-20220419145251960

    AdaGrad 在稀疏数据场景下表现最好。因为对于频繁出现的参数,学习率衰减得快;对于稀疏的参数,学习率衰减得更慢。然而在实际很多情况下,二阶动量呈单调递增,累计从训练开始的梯度,学习率会很快减至 0 ,导致参数不再更新,训练过程提前结束。

    代码实现:

    # adagrad
    v_w += tf.square(grads[0]) 
    v_b += tf.square(grads[1])
    w1.assign_sub(learning_rate * grads[0] / tf.sqrt(v_w)) 
    b1.assign_sub(learning_rate * grads[1] / tf.sqrt(v_b))
    

    6.3 RMSProp

    TensorFlow API: tf.keras.optimizers.RMSprop

    RMSProp算法的全称叫 Root Mean Square Prop,是由Geoffrey E. Hinton提出的一种优化算法(Hinton的课件见下图)。由于 AdaGrad 的学习率衰减太过激进,考虑改变二阶动量的计算策略:不累计全部梯度,只关注过去某一窗口内的梯度。修改的思路很直接,前面我们说过,指数移动平均值大约是过去一段时间的均值,反映“局部的”参数信息,因此我们用这个方法来计算二阶累积动量:

    image-20220419145743408

    下图是来自Hinton的Lecture:

    TensorFlow笔记21

    代码实现:

    # RMSProp beta = 0.9
    v_w = beta * v_w + (1 - beta) * tf.square(grads[0]) 
    v_b = beta * v_b + (1 - beta) * tf.square(grads[1]) 
    w1.assign_sub(learning_rate * grads[0] / tf.sqrt(v_w)) 
    b1.assign_sub(learning_rate * grads[1] / tf.sqrt(v_b))
    

    6.4 AdaDelta

    TensorFlow API:tf.keras.optimizers.Adadelta

    为解决AdaGrad的学习率递减太快的问题,RMSProp和AdaDelta几乎同时独立被提出。
    我们先看论文的AdaDelta算法,下图来自原论文:

    TensorFlow笔记23

    image-20220419150128697

    代码实现:

    # AdaDelta 
    beta = 0.999
    v_w = beta * v_w + (1 - beta) * tf.square(grads[0]) 
    v_b = beta * v_b + (1 - beta) * tf.square(grads[1])
    
    delta_w = tf.sqrt(u_w) * grads[0] / tf.sqrt(v_w)
    delta_b = tf.sqrt(u_b) * grads[1] / tf.sqrt(v_b)
    
    u_w = beta * u_w + (1 - beta) * tf.square(delta_w) 
    u_b = beta * u_b + (1 - beta) * tf.square(delta_b)
    
    w1.assign_sub(delta_w) 
    b1.assign_sub(delta_b)
    

    6.5 Adam

    TensorFlow API: tf.keras.optimizers.Adam

    Adam名字来源是adaptive moment estimation。Our method is designed to combine theadvantages of two recently popular methods: AdaGrad (Duchi et al., 2011), which works well with sparse gradients, and RMSProp (Tieleman & Hinton, 2012), which works well in on-line and non-stationary settings。也就是说,adam融合了Adagrad和RMSprop的思想。

    谈到这里,Adam的出现就很自然而然了——它们是前述方法的集大成者。我们看到,SGDM在SGD基础上增加了一阶动量,AdaGrad、RMSProp和AdaDelta在SGD基础上增加了二阶动量。把一阶动量和二阶动量结合起来,再修正偏差,就是Adam了。

    SGDM的一阶动量:

    image-20220419150312532

    加上RMSProp的二阶动量:

    image-20220419150329521

    其中,参数经验值是\(\beta_1=0.9,\beta_1=0.999\)
    一阶动量和二阶动量都是按照指数移动平均值进行计算的。初始化\(m_0 = 0,V_0 = 0\) ,在初期,迭代得到的\(m_t,V_t\)会接近于0。我们可以通过对 进行偏差修正来解决这一问题:

    image-20220419150408266

    代码实现:

    # adam
    m_w = beta1 * m_w + (1 - beta1) * grads[0]
    m_b = beta1 * m_b + (1 - beta1) * grads[1]
    v_w = beta2 * v_w + (1 - beta2) * tf.square(grads[0])
    v_b = beta2 * v_b + (1 - beta2) * tf.square(grads[1])
    m_w_correction = m_w / (1 - tf.pow(beta1, int(global_step)))
    m_b_correction = m_b / (1 - tf.pow(beta1, int(global_step)))
    v_w_correction = v_w / (1 - tf.pow(beta2, int(global_step)))
    v_b_correction = v_b / (1 - tf.pow(beta2, int(global_step)))
    w1.assign_sub(learning_rate * m_w_correction / tf.sqrt(v_w_correction))
    b1.assign_sub(learning_rate * m_b_correction / tf.sqrt(v_b_correction))
    

    6.5 优化器选择

    使用鸢尾花数据集分类,采用不同的优化器进行对比:

    • 运行环境:TensorFlow2.6
    • GPU:NVIDIA GeForce RTX 3050 Ti Laptop

    表1 loss图对比

    Sgd Sgdm Adagrad Rmsprop Adam
    img img img img img

    表2 ACC图对比

    Sgd Sgdm Adagrad Rmsprop Adam
    img img img img img

    表3 训练耗时(total_time)对比

    Sgd Sgdm Adagrad Rmsprop Adam
    8.700683116912842 9.523781061172485 9.319974184036255 9.45669436454773 10.990314722061157

    各优化器来源:

    SGD(1952):https://projecteuclid.org/euclid.aoms/1177729392(源自回答

    SGD with Momentum(1999):https://www.sciencedirect.com/science/article/abs/pii/ S0893608098001166

    SGD with Nesterov Acceleration(1983):由Yurii Nesterov提出

    AdaGrad(2011): http://www.jmlr.org/papers/volume12/duchi11a/duchi11a.pdf RMSProp(2012): http://www.cs.toronto.edu/~tijmen/csc321/slides/lecture_slides_lec6. pdf

    AdaDelta(2012): https://arxiv.org/abs/1212.5701 Adam:(2014) https://arxiv.org/abs/1412.6980

    (对上述算法非常好的可视化:https://imgur.com/a/Hqolp)

    ​ 很难说某一个优化器在所有情况下都表现很好,我们需要根据具体任务选取优化器。一些优化器在 计算机视觉任务表现很好,另一些在涉及RNN网络时表现很好,甚至在稀疏数据情况下表现更出色。

    ​ 总结上述,基于原始SGD增加动量和Nesterov动量,RMSProp是针对AdaGrad学习率衰减过快 的改进,它与AdaDelta非常相似,不同的一点在于AdaDelta采用参数更新的均方根(RMS)作为分 子。Adam在RMSProp的基础上增加动量和偏差修正。如果数据是稀疏的,建议用自适用方法,即Adagrad, RMSprop, Adadelta, Adam。RMSprop, Adadelta, Adam 在很多情况下的效果是相似的。随着梯度变的稀疏,Adam 比 RMSprop 效果会好。总的来说,Adam整体上是最好的选择。

    ​ 然而很多论文仅使用不带动量的vanilla SGD和简单的学习率衰减策略。SGD通常能够达到最小点,但是相对于其他优化器可能要采用更长的时间。采取合适的初始化方法和学习率策略,SGD更加可 靠,但也有可能陷于鞍点和极小值点。因此,当在训练大型的、复杂的深度神经网络时,我们想要快速 收敛,应采用自适应学习率策略的优化器。

    ​ 如果是刚入门,优先考虑Adam或者SGD+Nesterov Momentum。

    ​ 算法没有好坏,最适合数据的才是最好的,永远记住:No free lunch theorem。

    6.7 优化算法的常用tricks

    1. 首先,各大算法孰优孰劣并无定论。如果是刚入门,优先考虑SGD+Nesterov Momentum或者Adam.(Standford 231n : The two recommended updates to use are either SGD+Nesterov Momentum or Adam)
    2. 选择你熟悉的算法——这样你可以更加熟练地利用你的经验进行调参。
    3. 充分了解你的数据——如果模型是非常稀疏的,那么优先考虑自适应学习率的算法。
    4. 根据你的需求来选择——在模型设计实验过程中,要快速验证新模型的效果,可以先用Adam进 行快速实验优化;在模型上线或者结果发布前,可以用精调的SGD进行模型的极致优化。
    5. 先用小数据集进行实验。有论文研究指出,随机梯度下降算法的收敛速度和数据集的大小的关系不大。(The mathematics of stochastic gradient descent are amazingly independent of the training set size. In particular, the asymptotic SGD convergence rates are independent from the sample size.)因此可以先用一个具有代表性的小数据集进行实验,测试一下最好的优化算法,并通过参数搜索来寻找最优的训练参数。
    6. 考虑不同算法的组合。先用Adam进行快速下降,而后再换到SGD进行充分的调优。
    7. 充分打乱数据集(shuffle)。这样在使用自适应学习率算法的时候,可以避免某些特征集中出现,而导致的有时学习过度、有时学习不足,使得下降方向出现偏差的问题。在每一轮迭代后对训 练数据打乱是一个不错的主意。
    8. 训练过程中持续监控训练数据和验证数据上的目标函数值以及精度或者AUC等指标的变化情况。对训练数据的监控是要保证模型进行了充分的训练——下降方向正确,且学习率足够高;对验证数 据的监控是为了避免出现过拟合。
    9. 制定一个合适的学习率衰减策略。可以使用分段常数衰减策略,比如每过多少个epoch就衰减一次;或者利用精度或者AUC等性能指标来监控,当测试集上的指标不变或者下跌时,就降低学习 率。
    10. Early stopping。如Geoff Hinton所说:“Early Stopping是美好的免费午餐”。你因此必须在训练的过程中时常在验证集上监测误差,在验证集上如果损失函数不再显著地降低,那么应该提前结 束训练。
    11. 算法参数的初始值选择。 初始值不同,获得的最小值也有可能不同,因此梯度下降求得的只是局部最小值;当然如果损失函数是凸函数则一定是最优解。由于有局部最优解的风险,需要多次用不 同初始值运行算法,关键损失函数的最小值,选择损失函数最小化的初值。

    6.8 参考链接

    1. TensorFlow官网
    2. 卷积神经网络的复杂度分析
    3. 一个框架看懂优化算法之异同 SGD/AdaGrad/Adam
    4. 梯度下降法家族
    5. Some State of the Art Optimizers in Neural Networks
    6. An overview of gradient descent optimization algorithms

    7 常用Tensorflow API及代码实现

    7.1学习率策略

    tf.keras.optimizers.schedules.ExponentialDecay

    tf.keras.optimizers.schedules.ExponentialDecay(
    	initial_learning_rate, decay_steps, decay_rate, staircase=False, name=None
    )
    

    功能:指数衰减学习率策略.

    等价API:tf.optimizers.schedules.ExponentialDecay

    参数:

    ​ initial_learning_rate: 初始学习率

    ​ decay_steps: 衰减步数, staircase为True时有效.

    ​ decay_rate: 衰减率

    ​ staircase: Bool型变量.如果为True, 学习率呈现阶梯型下降趋势.

    返回:tf.keras.optimizers.schedules.ExponentialDecay(step)返回计算得到的学习率

    链接:tf.keras.optimizers.schedules.ExponentialDecay

    示例:

    N = 400
    lr_schedule = 
    	tf.keras.optimizers.schedules.ExponentialDecay( 0.5,
    	decay_steps=10, 
    	decay_rate=0.9, 
    	staircase=False)
    y = []
    for global_step in range(N):
    	lr = lr_schedule(global_step) 
    	y.append(lr)
    x = range(N) 
    plt.figure(figsize=(8,6)) 
    plt.plot(x, y, 'r-')
    plt.ylim([0,max(plt.ylim())]) 
    plt.xlabel('Step') 
    plt.ylabel('Learning Rate') 
    plt.title('ExponentialDecay') 
    plt.show()
    

    image-20210622165702531

    tf.keras.optimizers.schedules.PiecewiseConstantDecay

    tf.keras.optimizers.schedules.PiecewiseConstantDecay( 
    	boundaries, values, name=None
    )
    

    功能:分段常数衰减学习率策略.

    等价API:tf.optimizers.schedules.PiecewiseConstantDecay

    参数:

    ​ boundaries: [step_1, step_2, ..., step_n]定义了在第几步进行学习率衰减

    ​ values: [val_0, val_1, val_2, ..., val_n]定义了学习率的初始值和后续衰减时的具体取值

    返回:tf.keras.optimizers.schedules.PiecewiseConstantDecay(step)返回计算得到的学习率.

    链接: tf.keras.optimizers.schedules.PiecewiseConstantDecay

    示例:

    N = 400
    lr_schedule = 
    	tf.keras.optimizers.schedules.PiecewiseConstantDecay( 
    	boundaries=[100, 200, 300],
    	values=[0.1, 0.05, 0.025, 0.001]) 
    y = []
    for global_step in range(N):
    	lr = lr_schedule(global_step) 
    	y.append(lr)
    x = range(N) 
    plt.figure(figsize=(8,6)) 
    plt.plot(x, y, 'r-')
    plt.ylim([0,max(plt.ylim())]) 
    plt.xlabel('Step') 
    plt.ylabel('Learning Rate') 
    plt.title('PiecewiseConstantDecay')
    

    image-20210622170356113

    7.2激活函数

    tf.math.sigmoid

    tf.math.sigmoid( 
    	x, name=None
    )
    

    功能:计算x每一个元素的sigmoid值.

    等价API:tf.nn.sigmoid, tf.sigmoid

    参数:

    ​ x是张量x

    返回:

    ​ 与x shape相同的张量

    链接: tf.math.sigmoid

    示例:

    x = tf.constant([1., 2., 3.], ) 
    print(tf.math.sigmoid(x))
    >>> tf.Tensor([0.7310586 0.880797  0.95257413], shape=(3,), dtype=float32)
    # 等价实现
    print(1/(1+tf.math.exp(-x)))
    >>> tf.Tensor([0.7310586  0.880797  0.95257413], shape=(3,), dtype=float32)
    

    tf.math.tanh

    tf.math.tanh(
    	x, name=None
    )
    

    功能:计算x每一个元素的双曲正切值.

    等价API:tf.nn.tanh, tf.tanh

    参数:

    ​ x是张量x

    返回:

    ​ 与x shape相同的张量

    链接: tf.math.tanh

    示例:

    x = tf.constant([-float("inf"), -5, -0.5, 1, 1.2, 2, 3, float("inf")]) 
    print(tf.math.tanh(x))
    >>> tf.Tensor([-1. -0.99990916 -0.46211717 0.7615942 0.8336547 0.9640276
    0.9950547 1.], shape=(8,), dtype=float32)
    # 等价实现
    print((tf.math.exp(x)-tf.math.exp(-x))/(tf.math.exp(x)+tf.math.exp(-x)))
    >>> tf.Tensor([nan -0.9999091 -0.46211714 0.7615942 0.83365464 0.9640275
    0.9950547 nan], shape=(8,), dtype=float32)
    

    tf.nn.relu

    tf.nn.relu(
    	features, name=None
    )
    

    功能:计算修正线性值(rectified linear):max(features, 0).

    参数:

    ​ features:张量

    链接: tf.nn.relu

    例子:

    print(tf.nn.relu([-2., 0., -0., 3.]))
    >>> tf.Tensor([0. 0. -0. 3.], shape=(4,), dtype=float32)
    

    tf.nn.softmax

    tf.nn.softmax(
    	logits, axis=None, name=None
    )
    

    功能:计算softmax激活值.

    等价API:tf.math.softmax

    参数:

    ​ logits:张量

    ​ axis:计算softmax所在的维度. 默认为-1,即最后一个维度

    返回:与logits shape相同的张量.

    链接: tf.nn.softmax

    logits = tf.constant([4., 5., 1.]) 
    print(tf.nn.softmax(logits))
    >>> tf.Tensor([0.26538792 0.7213992 0.01321289], shape=(3,), dtype=float32)
    # 等价实现
    print(tf.exp(logits) / tf.reduce_sum(tf.exp(logits)))
    >>> tf.Tensor([0.26538792 0.72139925 0.01321289], shape=(3,), dtype=float32)
    

    7.3 损失函数

    tf.keras.losses.MSE

    tf.keras.losses.MSE( 
    	y_true,
        y_pred
    )
    

    功能:计算y_true和y_pred的均方误差.

    链接: tf.keras.losses.MSE

    示例:

    y_true = tf.constant([0.5, 0.8]) 
    y_pred = tf.constant([1.0, 1.0])
    print(tf.keras.losses.MSE(y_true, y_pred))
    >>> tf.Tensor(0.145, shape=(), dtype=float32)
    # 等价实现
    print(tf.reduce_mean(tf.square(y_true - y_pred)))
    >>> tf.Tensor(0.145, shape=(), dtype=float32)
    

    tf.keras.losses.categorical_crossentropy

    tf.keras.losses.categorical_crossentropy(
    	y_true, y_pred, from_logits=False, label_smoothing=0
    )
    

    功能:计算交叉熵.

    等价API:tf.losses.categorical_crossentropy

    参数:

    ​ y_true: 真实值

    ​ y_pred: 预测值

    ​ from_logits: y_pred是否为logits张量

    ​ label_smoothing: [0,1]之间的小数

    返回:交叉熵损失值.

    链接: tf.keras.losses.categorical_crossentropy

    y_true = [1, 0, 0]
    y_pred1 = [0.5, 0.4, 0.1]
    y_pred2 = [0.8, 0.1, 0.1]
    print(tf.keras.losses.categorical_crossentropy(y_true, y_pred1)) print(tf.keras.losses.categorical_crossentropy(y_true, y_pred2))
    >>> tf.Tensor(0.6931472, shape=(), dtype=float32) 
    tf.Tensor(0.22314353, shape=(), dtype=float32)
    # 等价实现
    print(-tf.reduce_sum(y_true * tf.math.log(y_pred1))) 
    print(-tf.reduce_sum(y_true * tf.math.log(y_pred2)))
    >>> tf.Tensor(0.6931472, shape=(), dtype=float32) 
    tf.Tensor(0.22314353, shape=(), dtype=float32)
    

    tf.nn.softmax_cross_entropy_with_logits

    tf.nn.softmax_cross_entropy_with_logits( 
    	labels, logits, axis=-1, name=None
    )
    

    功能:logits经过softmax后,与labels进行交叉熵计算

    image-20210622173024784

    参数:

    ​ labels: 在类别这一维度上,每个向量应服从有效的概率分布. 例如,在labels的shape为[batch_size, num_classes]的情况下,labels[i]应服从概率分布

    ​ logits: 每个类别的激活值,通常是线性层的输出. 激活值需要经过softmax归一化. axis: 类别所在维度,默认是-1,即最后一个维度.

    ​ axis: 类别所在维度,默认是-1,即最后一个维度

    返回:softmax交叉熵损失值.

    链接: tf.nn.softmax_cross_entropy_with_logits

    labels = [[1.0, 0.0, 0.0], [0.0, 1.0, 0.0]]
    logits = [[4.0, 2.0, 1.0], [0.0, 5.0, 1.0]]
    print(tf.nn.softmax_cross_entropy_with_logits(labels=labels, logits=logits))
    >>> tf.Tensor([0.16984604 0.02474492], shape=(2,), dtype=float32)
    # 等价实现
    print(-tf.reduce_sum(labels * tf.math.log(tf.nn.softmax(logits)), axis=1))
    >>> tf.Tensor([0.16984606 0.02474495], shape=(2,), dtype=float32)
    

    tf.nn.sparse_softmax_cross_entropy_with_logits

    tf.nn.sparse_softmax_cross_entropy_with_logits( 
    	labels, logits, name=None
    )
    

    功能:labels经过one-hot编码,logits经过softmax,两者进行交叉熵计算. 通常labels的shape为[batch_size],logits的shape为[batch_size, num_classes]. sparse 可理解为对labels进行稀疏化处理(即进行one-hot编码).

    参数:

    ​ labels: 标签的索引值

    ​ logits: 每个类别的激活值,通常是线性层的输出. 激活值需要经过softmax归一化

    返回:softmax交叉熵损失值.

    链接: tf.nn.sparse_softmax_cross_entropy_with_logits

    例子:(下例中先对labels进行one-hot编码为[[1,0,0], [0,1,0]],logits经过softmax变为[[0.844, 0.114,0.042], [0.007,0.976,0.018]],两者再进行交叉熵运算)

    labels = [0, 1]
    logits = [[4.0, 2.0, 1.0], [0.0, 5.0, 1.0]]
    print(tf.nn.sparse_softmax_cross_entropy_with_logits(labels1, logits))
    >>> tf.Tensor([0.16984604 0.02474492], shape=(2,), dtype=float32)
    # 等价实现
    print(-tf.reduce_sum(tf.one_hot(labels, tf.shape(logits)[1]) * tf.math.log(tf.nn.softmax(logits)), axis=1))
    >>> tf.Tensor([0.16984606 0.02474495], shape=(2,), dtype=float32)
    

    7.4 其他

    tf.cast

    tf.cast(
    	x, dtype, name=None
    )
    

    功能:转换数据(张量)类型。

    参数:

    ​ x: 待转换的数据(张量)

    ​ dtype: 目标数据类型

    ​ name: 定义操作的名称(可选参数)

    返回:数据类型为dtype,shape与x相同的张量.

    链接: tf.cast

    示例:

    x = tf.constant([1.8, 2.2], dtype=tf.float32) 
    print(tf.cast(x, tf.int32))
    >>> tf.Tensor([1 2], shape=(2,), dtype=int32)
    

    tf.random.normal

    tf.random.normal(
    	shape, mean=0.0, stddev=1.0, dtype=tf.dtypes.float32, seed=None, name=None
    )
    

    功能:生成服从正态分布的随机值。

    参数:

    ​ x: 一维张量

    ​ mean: 正态分布的均值

    ​ stddev: 正态分布的方差

    返回:满足指定shape并且服从正态分布的张量.

    链接: tf.random.normal

    示例:

    tf.random.normal([3, 5])
    

    tf.where

    tf.where(
    	condition, x=None, y=None, name=None
    )
    

    功能:根据condition,取x或y中的值。如果为True,对应位置取x的值;如果为False,对应位置取y的值。

    参数:

    ​ condition: bool型张量.

    ​ x: 与y shape相同的张量

    ​ y: 与x shape相同的张量

    返回:

    ​ shape与x相同的张量

    链接: tf.where

    示例;

    print(tf.where([True, False, True, False], [1,2,3,4], [5,6,7,8]))
    >>> tf.Tensor([1 6 3 8], shape=(4,), dtype=int32)
    

  • 相关阅读:
    nginx源码分析:module机制
    Linux源码分析之:malloc、free
    shell格式化字符串
    shell执行字符串中的命令
    docker安装并运行mongo
    docker安装并运行kibana
    docker安装并运行elasticsearch
    docker安装并运行rabbitmq
    docker安装并运行ngnix
    docker安装并运行redis
  • 原文地址:https://www.cnblogs.com/wkfvawl/p/16165631.html
Copyright © 2020-2023  润新知