import tensorflow as tf
def f():
var = tf.Variable(initial_value=tf.random_normal(shape=[2]))
return var
a1=f()
a2=f()
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
print(sess.run(a1))
print(sess.run(a2))
输出为:
[-0.74532765 -1.91889453]
[ 0.35587442 0.8001433 ]
可以看到两次调用实际上是生成了两组变量。
在需要共享之前变量的时候可以使用get_variable()和 variable_scope() 来管理变量名和作用域。
def f1():
var = tf.get_variable(name="var_name",shape=[2],initializer=tf.random_normal_initializer())
return var
a1=f1()
a2=f1()
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
print(sess.run(a1))
print(sess.run(a2))
#ValueError: Variable var_name already exists, disallowed.
运行上面代码会抛出ValueError: Variable var_name already exists错误,这是因为get_variable()会检查是否有其他变量使用这个全称.在这里a1赋值的时候var_name已经被使用了。
使用variable_scope()可以解决这个问题:
方法1:
with tf.variable_scope('f_scope') as scope:
a1=f1()
scope.reuse_variables()
a2=f1()
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
print(sess.run(a1))
print(sess.run(a2))
方法2:
with tf.variable_scope("f_scope1") :
a1=f1()
with tf.variable_scope("f_scope1", reuse = True):
a2=f1()
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
print(sess.run(a1))
print(sess.run(a2))
输出为:
[ 1.16212559 -0.6709134 ]
[ 1.16212559 -0.6709134 ]
可以看到两次调用使用同样的变量
要注意的是:variable_scope()的reuse 参数是不可继承。当打开一个重用变量作用域,那么所有的子作用域也将会被重用。