• tensorflow函数介绍(1)


    tensorflow中的tensor表示一种数据结构,而flow则表现为一种计算模型,两者合起来就是通过计算图的形式来进行计算表述,其每个计算都是计算图上的一个节点,节点间的边表示了计算之间的依赖关系。一般的tensorflow程序分为两个阶段,在第一阶段定义计算图需要的变量,第二个阶段定义计算模型,最后通过执行计算来得到运行结果。

    import tensorflow as tf

    1、常数及矩阵

    m1=tf.constant([[3.,3.]])     #产生两行一列的矩阵(创建一个常量tensor)
    m2=tf.constant([[3.],[3.]])   #产生两列一行的矩阵
    result=tf.matmul(m1,m2)    #矩阵相乘
    sess=tf.Session()
    sess.run(result)      #运行选中节点并返回值
    sess.close()    #关闭会话
    #其中sess=tf.session()和sess=tf.InteractiveSession()区别在于后者便于交互式,后者倾向于运算前提交整个计算图
    tf.ones(shape=[2,2])     #维度为shape的全为1的矩阵
    tf.zeros(shape=[3,3])    #维度为shape的全为0的矩阵
    tf.constant([3.0, 3.0])    #产生常量列表,可sess.run()
    tf.random_normal(shape=[2,2],stddev=2)    #产生正态分布随机数,stddev为标准差
    tf.random_uniform(shape=[2,2],minval=0,maxval=None)   #产生均匀分布随机数,最小为...,最大为...
    tf.fill([2,3],9) #对矩阵内容以9来填充
    x=tf.constant([[1.,2.],[3.,4.]])
    sess.run(tf.reduce_mean(x)) #reduce_mean 返回均值,若tf.reduce_mean(x,0)则返回第一行的均值,参数0改为1则返回第二行均值
    x=tf.Variable([1.0, 2.0]) #创建变量列表(定义一个变量),不可直接sess.run() 
    test=np.array([[1, 2, 3], [2, 3, 4], [5, 4, 3], [8, 7, 2]]) 
    tf.argmax(test,0) #返回每一列最大项所在位置
    tf.argmax(test,1) #返回每一行最大项所在位置
    tf.cast(a,tf.float32) #将变量a转换为指定格式(tf.float32)
    tf.group(a1,a2)
    tf.shape(a) #返回a的维度
    tf.reshape(a,[5,1]) #将a的维度转为[5,1]
    #若a=[[[1, 1, 1],[2, 2, 2]],[[3, 3, 3],[4, 4, 4]],[[5, 5, 5],[6, 6, 6]]]
    tf.reshape(a,[-1,9]) #则返回[[1, 1, 1, 2, 2, 2, 3, 3, 3], [4, 4, 4, 5, 5, 5, 6, 6, 6]]
    tf.reshaoe(a,[2,-1]) #则返回[[1, 1, 1, 2, 2, 2, 3, 3, 3], [4, 4, 4, 5, 5, 5, 6, 6, 6]] 这里和上面的-1含义不需要我们指定维度的大小,函数会自动计算,但列表里只能有1个-1
    tf.equal(a,b) #判断a和b是否相同,相同则返回True,否则返回False
    tf.sqrt(x) # 对x开根号
    tf.square(x) # x的平方
    a=tf.constant([1,2,3])
    b=tf.constant([4,5,6])
    c=tf.stack([a,b],axis=0) #将a和b按照0轴合并
    d=tf.unstack(c,axis=0) #将c按照0轴进行拆分
    A=np.array([[1,2,3],[4,5,6]])
    tf.transpose(A,[1,0]) #将A的0维和1维进行交换,也相当于转置
    B=np.array([[[1,2,3],[4,5,6]]])
    tf.transpose(B, [2,1,0]) #将B的0维、1维、1维进行替换,替换顺序从原来的[0,1,2]转换成[2,1,0],在该例中也就是第一维和第三维进行转换
    tf.decode_raw(image,tf.uint8) #将tf.decode_raw可以将字符串转换成uint8的张量,其中tf.uint8为无符号整型,tf.int8为有符号整型

    2、变量

    #或者这样定义变量
    w=np.array([[1,1,1],[2,2,2],[3,3,3]]) x=tf.Variable(initial_value=w) #先通过np定义,后导入tf init=tf.global_variables_initializer() #变量定义完后,显式地执行所有变量初始化操作才可进行下一步 with tf.Session() as sess: sess.run(init) print(sess.run(x))
    w_2 = tf.get_variable(name="w_1",initializer=2) #定义变量w_1,初始化为2
    sess.run(x.initializer)    #变量定义后也可以选择单个变量初始化,然而若需要初始化的变量过多,则选择上面的init=tf.global_variables_initializer()来进行初始化
    sess.run(x) #继上再sess.run()
    tf.get_variable(shape=[2,2],name='xiaoli') #判断是否存在该变量名,若存在则调用该变量,若不存在则创建名为name的变量
    bias = tf.get_variable("bias", shape=[2,2],initializer=tf.zeros_initializer()) #变量初始化填补,以1来填充 tf.Variable(tf.random_normal(shape=[5,5],stddev=1),name='zhangsan') #创建初始变量
    tf.Variable(tf.ones(3,3),name='cccc')
    tf.Variable(tf.constant([1,2,3]),name='cccc')
    a=tf.Variable(0,dtype=tf.float32)
    tf.assign(a,2) #将2赋值给a
    b=tf.assign_add(a,2) #将a的值加上2并将结果赋值给b
    a=tf.Variable(tf.constant([1,2],shape=[1,2]),dtype=tf.int32) #在Variable步骤初始化a并设置a的维度
    a=tf.Variable([1])
    a.dtype() #返回tensor的数据类型
    a.name #返回a的名称
    a.graph #返回该tensor所在的图
    a.op #返回产生该tensor的op
    a.get_shape() #返回该tensor的shape
    a.set_shape() #更新tensor的shape
    a.device #设置计算该tensor的设备
    a=tf.get_variable(name='a',shape=[1,2],initializer=tf.constant_initializer([1,2]))
    tf.get_variable_scope().reuse_variables() #该操作使得tf.get_variable()变量可以重复构建
    a=tf.get_variable(name='a',shape=[1,2],initializer=tf.constant_initializer([1,2]))

    3、占位符

    x=tf.placeholder(tf.float32,shape=[5,5])        #先占位置
    y=tf.matmul(x,x)
    with tf.Session() as sess:
        a=np.random.rand(5,5)           
        print(sess.run(y,feed_dict={x:a}))      #后通过sess.run()里的feed_dict进行填充

    4、加减法和乘法

    例1:

    x=tf.Variable(tf.ones(shape=[3,3]))
    y=tf.Variable(tf.ones(shape=[3,3]))
    z=tf.matmul(x,y)                 #乘法
    z=tf.add(x,y)             #加法
    z=tf.subtract(x,y)             #减法
    init=tf.global_variables_initializer()     
    with tf.Session() as sess:
        sess.run(init)
        print(sess.run(z))

    例2:

    a=tf.placeholder(tf.int16)
    b=tf.placeholder(tf.int16)
    c=tf.add(a,b)
    with tf.Session() as sess:
        print(sess.run(c,feed_dict={a:2,b:3}))

     5、tensor的连接及操作

    a=[[1,1,1,1],[2,2,2,2],[3,3,3,3],[4,4,4,4]]
    b1=tf.shape(a)
    b2=tf.size(a)
    b3=tf.reshape(a,[2,-1])
    with tf.Session() as sess:
        print(sess.run(b1))           #获取维度
        print(sess.run(b2))          #获取size
        print(sess.run(b3))       #将原数据进行维度转换
    
    t1 = [[1, 2, 3], [4, 5, 6]]
    t2 = [[7, 8, 9], [10, 11, 12]]
    with tf.Session() as sess:
        print(sess.run(tf.concat([t1,t2],0)))    #将t1和t2按照行合并,参数设置为0
        print(sess.run(tf.concat([t1,t2],1)))    #将t1和t2按照列合并,参数设置为1

      6、出现重复变量后的variable_scope()和name_scope()区别

    (1)这里分别以name_scope()和variable_scope()的两个例子为例:
    with tf.name_scope('name1'):
        var1=tf.Variable(name='var1',initial_value=[2],dtype=tf.float32)
        var2=tf.Variable(name='var1',initial_value=[2.2],dtype=tf.float32)
        var3=tf.Variable(name='var1',initial_value=[2.3],dtype=tf.float32)
    with tf.Session() as sess:
        init=tf.global_variables_initializer()
        sess.run(init)
        print(var1.name)         #输出name1/var1:0
        print(sess.run(var1))   #输出[ 2.]
        print(var2.name)    #输出name1/var1_1:0
        print(sess.run(var2))   #输出[ 2.20000005]
        print(var3.name)    #输出name1/var1_2:0
        print(sess.run(var3))   #输出[ 2.29999995]
    从上述结果可以发现,通过tf.name_scope()区域下,虽然变量重复定义,但其实生成了不同的变量名
    with tf.variable_scope('bar') as scope:
        initializer=tf.constant_initializer(value=3) 
        var3=tf.get_variable(name='var3',shape=[1],initializer=initializer)
        scope.reuse_variables()
        var4=tf.get_variable(name='var3')
    with tf.Session() as sess:
        sess.run(tf.global_variables_initializer())
        print(var3.name)   #输出bar/var3:0
        print(sess.run(var3))    #输出[ 3.]
        print(var4.name)   #输出bar/var3:0
        print(sess.run(var4))   #输出[ 3.]

     对于重复命名的变量,通过scope.reuse_variables()来处理

      (2)重复命名的变量的又一个例子(这次通过在variable_scope里增加参数reuse=True来重复提取变量)

    import tensorflow as tf
    with tf.variable_scope('layer1') as scope:
        weights=tf.get_variable('weight',[2,2],initializer=tf.constant_initializer(1.))
        x=tf.constant([1.,2.,1.,2.],shape=[2,2])
        layer1=tf.nn.relu(tf.matmul(x,weights))
    with tf.variable_scope('layer1',reuse=True):
        weights=tf.get_variable('weight')        #tf.get_variable用于判断是否存在相同命名的变量,有则返回该变量,相反的tf.Variable用于每次都能创建新的变量
        x=tf.constant([3.,3.,3.,3.],shape=[2,2])
        layer2=tf.nn.relu(tf.matmul(x,weights))
    sess=tf.Session()
    init=tf.global_variables_initializer()
    sess.run(init)
    sess.run(layer1)
    sess.run(layer2)

     7、group和tuple的使用

    w = tf.Variable(1)
    mul = tf.multiply(w, 2)
    add = tf.add(w, 2)
    group = tf.group(mul, add)   #group返回的是operation
    tuple = tf.tuple([mul, add])   #tuple返回的是tensor(张量)
    sess=tf.Session()
    sess.run(w.initializer)
    sess.run(group)   #不输出值
    sess.run(tuple)     #返回的是mul和add的计算结果

     8、session.run和tensor.eval区别

    参考来源:http://blog.csdn.net/zcf1784266476/article/details/70259676

    假若有一个tensor,那么t.eval()等价于tf.get_default_session().run(t)

    相比于t.eval,sess.run()可以一次获得多个tensor中的值,以如下为例:

    t = tf.constant(42.0)
    u = tf.constant(37.0)
    tu = tf.multiply(t, u)
    ut = tf.multiply(u, t)
    init=tf.global_variables_initializer()
    with sess.as_default():
        sess.run(init)
        print(tu.eval())  # runs one step
        print(ut.eval()) # runs one step
        print(sess.run([tu, ut]))

     9、tf.reduce_mean()和tf.expand_dims()

    tf.trainable_variables()    #返回所有当前计算图中,在获取变量时未被标记trainable=False的变量集合
    #设x为[[1.,2.],[3.,4.]]
    tf.reduce_mean(x) #返回2.5
    tf.reduce_mean(x,0) #返回[2.,3.],计算每列的均值
    tf.reduce_mean(x,1) #返回[1.5,3.5],计算每行的均值
    # 't' is a tensor of shape [2]
    tf.shape(tf.expand_dims(t, 0)) ==> [1, 2]
    tf.shape(tf.expand_dims(t, 1)) ==> [2, 1]
    tf.shape(tf.expand_dims(t, -1)) ==> [2, 1]
    # 't2' is a tensor of shape [2, 3, 5]
    tf.shape(tf.expand_dims(t2, 0)) ==> [1, 2, 3, 5]
    tf.shape(tf.expand_dims(t2, 2)) ==> [2, 3, 1, 5]
    tf.shape(tf.expand_dims(t2, 3)) ==> [2, 3, 5, 1]

     10、tf.train.global_step

     首先构建变量来放global_step的值,trainable要设置为False,这样传播的时候就不会修改global_step的值。

     tf.train.global_step()用来获取当前sess的global_step值

    建立global_step的过程如下:

    global_step=tf.Variable(0,trainable=False,name='global_step')
    global_step=tf.get_variable('global_step',[],initializer=tf.constant_initializer(0),trainable=False)

    若是使用minimize,则将global_step作为参数传入minimize

    global_step = tf.Variable(0,trainable=False)
    increment_op = tf.assign_add(global_step,tf.constant(1))
    sess = tf.Session()
    init = tf.global_variables_initializer()
    sess.run(init)
    for step in range(0,10):
      ....
    print(sess.run(increment_op)) #返回1 2 3 4 5 6 7 8 9 10
    increase = tf.Variable(0, trainable=False, name='global_step')
    for _ in range(10):
        increase=tf.assign_add(increase,tf.constant(1))
        sess = tf.Session()
        init=tf.global_variables_initializer()
        sess.run(init)
        print('global_step: %s' % tf.train.global_step(sess, increase))

     11、tf.slice() 取切片

    import numpy as np
    x=np.arange(24).reshape([2,3,4])  
    begin_x=[1,0,0]
    size_x=[1,2,3]            #分别表示从begin_x开始,在各维度取多少个元素
    out=tf.slice(x,begin_x,size_x)
    with tf.Session() as sess:
        sess.run(tf.global_variables_initializer())
        print(sess.run(out))
  • 相关阅读:
    Docker 入门
    python3模块: sys
    Python sys os getpass 包的导入
    Python3模块: hashlib
    python3异常处理 try
    python3模块: uuid
    python3 内置函数详解
    servlet/和/*匹配的区别
    [转]任何程序员应该记住的性能指标
    [转]使用CMS垃圾收集器产生的问题和解决方案
  • 原文地址:https://www.cnblogs.com/xiaochouk/p/8305169.html
Copyright © 2020-2023  润新知