• tf.name_scope()和tf.variable_scope()解析


    摘要: tf.name_scope()和tf.variable_scope()是两个作用域,一般与两个创建/调用变量的函数tf.variable() 和tf.get_variable()搭配使用。它们搭配在一起的两个常见用途:1)变量共享,2)tensorboard画流程图时为了可视化封装变量,这两种用途有特定的搭配方式,掌握好就可以用了。如果您想打破砂锅问到底,想要探寻更多的知识,了解它们的用法和区别,本文中则阐述了更多的详情。

    一. name_scope 和 variable_scope的用途
    用途1: 共享变量
    TensorFlow (TF) 中,name_scope 和 variable_scope 主要是因为 变量共享 的需求。为什么要共享变量?举个简单的例子:例如,当我们研究生成对抗网络GAN的时候,判别器的任务是如果接收到的是生成器生成的图像,判别器就尝试优化自己的网络结构来使自己输出0,如果接收到的是来自真实数据的图像,那么就尝试优化自己的网络结构来使自己输出1。也就是说,生成图像和真实图像经过判别器的时候,要共享同一套变量,所以TensorFlow引入了变量共享机制。

    变量共享主要涉及两个函数:

    tf.get_variable(, , )
    tf.variable_scope(<scope_name>)
    即就是必须要在tf.variable_scope的作用域下使用tf.get_variable()函数。这里用tf.get_variable( ) 而不用tf.Variable( ),是因为前者拥有一个变量检查机制,会检测已经存在的变量是否设置为共享变量,如果已经存在的变量没有设置为共享变量,TensorFlow 运行到第二个拥有相同名字的变量的时候,就会报错(详见本文的RNN应用例子章节)。

    两个创建变量的方式。如果使用tf.Variable() 的话每次都会新建变量。但是大多数时候我们是希望重用一些变量,所以就用到了get_variable(),它会去搜索变量名,有就直接用,没有再新建。
    名字域。既然用到变量名了,就涉及到了名字域的概念。通过不同的域来区别变量名,毕竟让我们给所有变量都取不同名字还是很辛苦。
    这就是为什么会有scope 的概念。name_scope 作用于操作,variable_scope 可以通过设置reuse 标志以及初始化方式来影响域下的变量。
    “共享变量” 的应用场景:RNN应用例子
    在tf.variable_scope的作用域下,通过get_variable()使用已经创建的变量,实现了变量的共享。在 train RNN 和 test RNN 的时候, RNN 的 time_steps 会有不同的取值, 这将会影响到整个 RNN 的结构, 所以导致在 test 的时候, 不能单纯地使用 train 时建立的那个 RNN. 但是 train RNN 和 test RNN 又必须是有同样的 weights biases 的参数. 所以, 这时, 就是使用 reuse variable 的好时机.

    例子:首先定义train 和 test 的不同参数.

    class TrainConfig:
    batch_size = 20
    time_steps = 20
    input_size = 10
    output_size = 2
    cell_size = 11
    learning_rate = 0.01

    class TestConfig(TrainConfig):
    time_steps = 1

    train_config = TrainConfig()
    test_config = TestConfig()
    然后让 train_rnn 和 test_rnn 在同一个 tf.variable_scope('rnn') 之下.

    并且定义 scope.reuse_variables(), 使我们能把 train_rnn 的所有 weights, biases 参数全部绑定到 test_rnn 中.

    这样, 不管两者的 time_steps 有多不同, 结构有多不同, train_rnn W, b 参数更新成什么样, test_rnn 的参数也更新成什么样.

    with tf.variable_scope('rnn') as scope:
    sess = tf.Session()
    train_rnn = RNN(train_config)
    scope.reuse_variables()
    test_rnn = RNN(test_config)
    sess.run(tf.global_variables_initializer())
    

    RNN 例子的完整代码可以看这里.

    因为想要达到变量共享的效果, 就要在 tf.variable_scope()的作用域下使用 tf.get_variable() 这种方式产生和提取变量. 不像 tf.Variable() 每次都会产生新的变量, tf.get_variable() 如果遇到了已经存在名字的变量时, 它会单纯的提取这个同样名字的变量,如果不存在名字的变量再创建.

    但在重复使用的时候, 一定要在代码中强调 scope.reuse_variables(),如下面代码所示,否则系统将会报错, 以为你是不小心重复使用到了一个变量.

    with tf.variable_scope("a_variable_scope") as scope:
    initializer = tf.constant_initializer(value=3)
    var3 = tf.get_variable(name='var3', shape=[1], dtype=tf.float32, initializer=initializer)
    scope.reuse_variables()
    var3_reuse = tf.get_variable(name='var3',) # var3_reuse
    var4 = tf.Variable(name='var4', initial_value=[4], dtype=tf.float32)
    var4_reuse = tf.Variable(name='var4', initial_value=[4], dtype=tf.float32) # var4_reuse
    
    with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    

    print(var3.name) # a_variable_scope/var3:0
    print(sess.run(var3)) # [ 3.]
    print(var3_reuse.name) # a_variable_scope/var3:0
    print(sess.run(var3_reuse)) # [ 3.]
    print(var4.name) # a_variable_scope/var4:0
    print(sess.run(var4)) # [ 4.]
    print(var4_reuse.name) # a_variable_scope/var4_1:0
    print(sess.run(var4_reuse)) # [ 4.]

    不强调reuse_variables()而报错的例子:

    如果把 tf.Variable 改成 tf.get_variable,直接调用两次,就会报错:

    result1 = my_image_filter(image1)
    result2 = my_image_filter(image2)
    Raises ValueError(... conv1/weights already exists ...)

    为了解决这个问题,TF提出了 tf.variable_scope 函数:它的主要作用是,在一个 variable_scope 作用域下内共享一些变量。实现方式可以有如下几种用法:

    1)

    with tf.variable_scope("image_filters") as scope:
    result1 = my_image_filter(image1)
    scope.reuse_variables() # or
    tf.get_variable_scope().reuse_variables()
    
    result2 = my_image_filter(image2)
    

    2)

    with tf.variable_scope("image_filters1") as scope1:
    result1 = my_image_filter(image1)
    with tf.variable_scope(scope1, reuse = True)
    result2 = my_image_filter(image2)
    

    注意最好不要采用的方式:设置 reuse 标识为 False,然后在需要的时候设置 reuse 标识为 True。

    可视化用途:画tensorboard流程图时封装
    当然对我们而言name_scope还有个更直观的用处就是:在tensorboard 里可视化的时候用name_scope进行封装后会更清晰. 通常情况下,tf.variable_scope 和 tf.name_scope 配合,能画出非常漂亮的tensorboard流程图,但是他们两个之间又有着细微的差别,那就是 name_scope 只能管住操作 Ops 的名字,而管不住变量 Variables 的名字,看下例:

    with tf.variable_scope("foo"):
    with tf.name_scope("bar"):
    v = tf.get_variable("v", [1])
    x = 1.0 + v
    assert v.name == "foo/v:0"
    assert x.op.name == "foo/bar/add"
    

    参考:https://www.zhihu.com/question/54513728/answer/177901159

    Tensorflow变量共享,参考:http://www.cnblogs.com/Charles-Wan/p/6200446.html

    参考:http://sentiment-mining.blogspot.com/2016/12/tensorflow-name-scope-variable-scope.html

    参考:https://morvanzhou.github.io/tutorials/machine-learning/tensorflow/5-12-scope/

    二. TensorFlow中name scope和variable scope区别
    为了在代码的任何部分可以使用某一个已经创建的变量,TF引入了变量共享机制共享变量,而不是传一个变量的引用。

    I. TF中创建变量的方式有两种:tf.get_variable()和tf.Variable()
    tf.get_variable(“vname”)方法,在创建变量时,如果这个变量vname已经存在,直接使用这个变量,如果不存在,则重新创建;
    tf.Variable()在创建变量时,一律创建新的变量,如果这个变量已存在,则后缀会增加0、1、2等数字编号予以区别。
    例子:在 tf.name_scope() 的框架下使用这两种方式, 结果如下.

    import tensorflow as tf
    
    with tf.name_scope("a_name_scope"):
    initializer = tf.constant_initializer(value=1)
    var1 = tf.get_variable(name='var1', shape=[1], dtype=tf.float32, initializer=initializer)
    var2 = tf.Variable(name='var2', initial_value=[2], dtype=tf.float32)
    var21 = tf.Variable(name='var2', initial_value=[2.1], dtype=tf.float32)
    var22 = tf.Variable(name='var2', initial_value=[2.2], dtype=tf.float32)
    
    with tf.Session() as sess:
    sess.run(tf.initialize_all_variables())
    

    print(var1.name) # var1:0
    print(sess.run(var1)) # [ 1.]
    print(var2.name) # a_name_scope/var2:0
    print(sess.run(var2)) # [ 2.]
    print(var21.name) # a_name_scope/var2_1:0
    print(sess.run(var21)) # [ 2.0999999]
    print(var22.name) # a_name_scope/var2_2:0
    print(sess.run(var22)) # [ 2.20000005]
    可以看出使用 tf.Variable() 定义变量的时候, 虽然var2, var21, var22的 name 一样, 但是为了不重复变量名, Tensorflow 为它们做了附加的区分,因为输出的变量名是不一样的. 所以, 本质上tensorflow令 var2, var21, var22 成为不一样的变量.

    这样做的目的是,搭配上不同的作用域类型,可以实现变量共享机制。

    II. TF中有两种作用域类型
    命名域 (name scope),通过tf.name_scope 或 tf.op_scope创建;
    变量域 (variable scope),通过tf.variable_scope 或 tf.variable_op_scope创建;
    这两种作用域,对于使用tf.Variable()方式创建的变量,具有相同的效果,都会在变量名称前面,加上域名称。
    对于通过tf.get_variable()方式创建的变量,只有variable scope名称会加到变量名称前面,而name scope不会作为前缀。例如 print(v1.name) # var1:0
    例子:

    with tf.name_scope("my_name_scope"):
    
        v1 = tf.get_variable("var1", [1], dtype=tf.float32)
         
        v2 = tf.Variable(1, name="var2", dtype=tf.float32)
         
        a = tf.add(v1, v2)
    

    print(v1.name) # var1:0

    print(v2.name) # my_name_scope/var2:0

    print(a.name) # my_name_scope/Add:0

    小结:name_scope不会作为tf.get_variable变量的前缀,但是会作为tf.Variable的前缀。

    例子:

    with tf.variable_scope("my_variable_scope"):
    
        v1 = tf.get_variable("var1", [1], dtype=tf.float32)
         
        v2 = tf.Variable(1, name="var2", dtype=tf.float32)
         
        a = tf.add(v1, v2)
    

    print(v1.name) # my_variable_scope/var1:0

    print(v2.name) # my_variable_scope/var2:0

    print(a.name) # my_variable_scope/Add:0

    小结:在variable_scope的作用域下,tf.get_variable()和tf.Variable()都加了scope_name前缀。因此,在tf.variable_scope的作用域下,通过get_variable()可以使用已经创建的变量,实现了变量的共享。

    作者: 刘小米92
    链接:https://www.imooc.com/article/22966
    来源:慕课网
    本文原创发布于慕课网 ,转载请注明出处,谢谢合作

  • 相关阅读:
    BootStrap详解之(一)
    Centos6.5安装与配置Tomcat-8的方法
    Centos下安装jdk详解
    Html基础详解之(jquery)之二
    四层和七层负载均衡的区别
    linux下用script和scriptreplay对命令行操作录像
    Linux批量部署工具Expect
    Linux日常之Ubuntu系统中sendmail的安装、配置、发送邮件
    Linux日常之定时向文件传内容
    Linux日常之以当前时间命名文件
  • 原文地址:https://www.cnblogs.com/bernieloveslife/p/10286322.html
Copyright © 2020-2023  润新知