• TensorFlow学习笔记之--[compute_gradients和apply_gradients原理浅析]


    I optimizer.minimize(loss, var_list)

    我们都知道,TensorFlow为我们提供了丰富的优化函数,例如GradientDescentOptimizer。这个方法会自动根据loss计算对应variable的导数。示例如下:

    loss = ...
    opt = tf.tf.train.GradientDescentOptimizer(learning_rate=0.1)
    train_op = opt.minimize(loss)
    init = tf.initialize_all_variables()
    
    with tf.Seesion() as sess:
        sess.run(init)
        for step in range(10):  
          session.run(train_op)
    

    首先我们看一下minimize()的源代码(为方便说明,部分参数已删除):

    def minimize(self, loss, global_step=None, var_list=None, name=None):
    
        grads_and_vars = self.compute_gradients(loss, var_list=var_list)
    
        vars_with_grad = [v for g, v in grads_and_vars if g is not None]
        if not vars_with_grad:
          raise ValueError(
              "No gradients provided for any variable, check your graph for ops"
              " that do not support gradients, between variables %s and loss %s." %
              ([str(v) for _, v in grads_and_vars], loss))
    
        return self.apply_gradients(grads_and_vars, global_step=global_step,
                                    name=name)
    

    由源代码可以知道minimize()实际上包含了两个步骤,即compute_gradientsapply_gradients,前者用于计算梯度,后者用于使用计算得到的梯度来更新对应的variable。下面对这两个函数做具体介绍。

    II computer_gradients(loss, val_list)

    参数含义:

    • loss: 需要被优化的Tensor
    • val_list: Optional list or tuple of tf.Variable to update to minimize loss. Defaults to the list of variables collected in the graph under the key GraphKeys.TRAINABLE_VARIABLES.

    简单说该函数就是用于计算loss对于指定val_list的导数的,最终返回的是元组列表,即[(gradient, variable),...]。

    看下面的示例

    x = tf.Variable(initial_value=50., dtype='float32')
    w = tf.Variable(initial_value=10., dtype='float32')
    y = w*x
    
    opt = tf.train.GradientDescentOptimizer(0.1)
    grad = opt.compute_gradients(y, [w,x])
    with tf.Session() as sess:
        sess.run(tf.global_variables_initializer())
        print(sess.run(grad))
    

    返回值如下:

    >>> [(50.0, 10.0), (10.0, 50.0)]
    

    可以看到返回了一个list,list中的元素是元组。第一个元组第一个元素是50,表示(frac{partial{y}}{partial{w}})的计算结果,第二个元素表示(w)。第二个元组同理不做赘述。

    其中tf.gradients(loss, tf.variables)的作用和这个函数类似,但是它只会返回计算得到的梯度,而不会返回对应的variable。

    with tf.Graph().as_default():
        x = tf.Variable(initial_value=3., dtype='float32')
        w = tf.Variable(initial_value=4., dtype='float32')
        y = w*x
    
        grads = tf.gradients(y, [w])
        print(grads)
    	
        opt = tf.train.GradientDescentOptimizer(0.1)
        grads_vals = opt.compute_gradients(y, [w])
        print(grad_vals)
    
    >>>
    [<tf.Tensor 'gradients/mul_grad/Mul:0' shape=() dtype=float32>]
    [(<tf.Tensor 'gradients_1/mul_grad/tuple/control_dependency:0' shape=() dtype=float32>, <tf.Variable 'Variable_1:0' shape=() dtype=float32_ref>)]
    

    III apply_gradients(grads_and_vars, global_step=None, name=None)

    该函数的作用是将compute_gradients()返回的值作为输入参数对variable进行更新。

    那为什么minimize()会分开两个步骤呢?原因是因为在某些情况下我们需要对梯度做一定的修正,例如为了防止梯度消失(gradient vanishing)或者梯度爆炸(gradient explosion),我们需要事先干预一下以免程序出现Nan的尴尬情况;有的时候也许我们需要给计算得到的梯度乘以一个权重或者其他乱七八糟的原因,所以才分开了两个步骤。

    IV Example

    下面给出一个使用tf.clip_by_norm来修正梯度的例子:

    with tf.Graph().as_default():
        x = tf.Variable(initial_value=3., dtype='float32')
        w = tf.Variable(initial_value=4., dtype='float32')
        y = w*x
        
        opt = tf.train.GradientDescentOptimizer(0.1)
        grads_vals = opt.compute_gradients(y, [w])
        for i, (g, v) in enumerate(grads_vals):
            if g is not None:
                grads_vals[i] = (tf.clip_by_norm(g, 5), v)  # clip gradients
        train_op = opt.apply_gradients(grads_vals)
        with tf.Session() as sess:
            sess.run(tf.global_variables_initializer())
            print(sess.run(grads_vals))
            print(sess.run([x,w,y]))
    		
    >>>		
    [(3.0, 4.0)]
    [3.0, 4.0, 12.0]	
    

    其他的tf.clip_by_*方法可参看TensorFlow学习笔记之--[tf.clip_by_global_norm,tf.clip_by_value,tf.clip_by_norm等的区别]




    微信公众号:AutoML机器学习
    MARSGGBO原创
    如有意合作或学术讨论欢迎私戳联系~
    邮箱:marsggbo@foxmail.com

    2018-12-2



  • 相关阅读:
    Android UI开发第十四篇——可以移动的悬浮框
    Android UI开发第八篇——ViewFlipper 左右滑动效果
    Android: Trusting SSL certificates
    Customize Android Fonts
    Android UI开发第三篇——popupwindow
    Android UI开发第四篇——实现像handcent sms或者chomp sms那样的气泡短信样式
    Android UI开发第一篇——android的九宫格式实现
    Android UI开发第十一篇——右上角带个泡泡
    Android开发之系统信息——获取Android手机中SD卡内存信息
    Android自动测试之MonkeyRunner之MonkeyImage
  • 原文地址:https://www.cnblogs.com/marsggbo/p/10056057.html
Copyright © 2020-2023  润新知