• TensorFlow笔记-组件


     

    张量

    TensorFlow用张量这种数据结构来表示所有的数据.你可以把一个张量想象成一个n维的数组或列表.一个张量有一个静态类型和动态类型的维数.张量可以在图中的节点之间流通.其实张量更代表的就是一种多位数组。

    在TensorFlow系统中,张量的维数来被描述为阶.但是张量的阶和矩阵的阶并不是同一个概念.张量的阶(有时是关于如顺序或度数或者是n维)是张量维数的一个数量描述.比如,下面的张量(使用Python中list定义的)就是2阶.

    t = [[1, 2, 3], [4, 5, 6], [7, 8, 9]]

    你可以认为一个二阶张量就是我们平常所说的矩阵,一阶张量可以认为是一个向量.

    数学实例Python例子
    0 纯量 (只有大小) s = 483
    1 向量 (大小和方向) v = [1.1, 2.2, 3.3]
    2 矩阵 (数据表) m = [[1, 2, 3], [4, 5, 6], [7, 8, 9]]
    3 3阶张量 (数据立体) t = [[[2], [4], [6]], [[8], [10], [12]], [[14], [16], [18]]]
    n n阶 (自己想想看) ....

    数据类型

    Tensors有一个数据类型属性.你可以为一个张量指定下列数据类型中的任意一个类型:

    数据类型Python 类型描述
    DT_FLOAT tf.float32 32 位浮点数.
    DT_DOUBLE tf.float64 64 位浮点数.
    DT_INT64 tf.int64 64 位有符号整型.
    DT_INT32 tf.int32 32 位有符号整型.
    DT_INT16 tf.int16 16 位有符号整型.
    DT_INT8 tf.int8 8 位有符号整型.
    DT_UINT8 tf.uint8 8 位无符号整型.
    DT_STRING tf.string 可变长度的字节数组.每一个张量元素都是一个字节数组.
    DT_BOOL tf.bool 布尔型.
    DT_COMPLEX64 tf.complex64 由两个32位浮点数组成的复数:实数和虚数.
    DT_QINT32 tf.qint32 用于量化Ops的32位有符号整型.
    DT_QINT8 tf.qint8 用于量化Ops的8位有符号整型.
    DT_QUINT8 tf.quint8 用于量化Ops的8位无符号整型.

    然后是tensorflow中对于各种数据的操作:

    注意上面向量运算中第三个:分割(split)

    固定值张量

    tf.zeros(shape, dtype=tf.float32, name=None)

    tf.zeros_like(tensor, dtype=None, name=None)

    tf.ones(shape, dtype=tf.float32, name=None)

    tf.ones_like(tensor, dtype=None, name=None

    tf.fill(dims, value, name=None)创建一个张量的形状dims并填充它value

    tf.constant(value, dtype=None, shape=None, name='Const')创建一个常数张量。

    创建随机张量

    tf.random_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None)

    从正态分布中输出随机值,由随机正态分布的数字组成的矩阵

    tf.truncated_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None)

    从截断的正态分布中输出随机值,和 tf.random_normal() 一样,但是所有数字都不超过两个标准差

    tf.random_shuffle(value, seed=None, name=None)

    沿其第一维度随机打乱

    tf.set_random_seed(seed)

    设置图级随机种子

    形状和变换

    可用于确定张量的形状并更改张量的形状

    • tf.shape(input, name=None)

    • tf.size(input, name=None)

    • tf.rank(input, name=None)

    • tf.reshape(tensor, shape, name=None)

    • tf.squeeze(input, squeeze_dims=None, name=None)

    • tf.expand_dims(input, dim, name=None)


    t = tf.placeholder(tf.float32,[None,2])

    张量复制与组合

    • tf.identity(input, name=None)

    • tf.tuple(tensors, name=None, control_inputs=None)

    • tf.group(inputs, *kwargs)

    • tf.no_op(name=None)

    • tf.count_up_to(ref, limit, name=None)

    逻辑运算符

    • tf.logical_and(x, y, name=None)

    • tf.logical_not(x, name=None)

    • tf.logical_or(x, y, name=None)

    • tf.logical_xor(x, y, name='LogicalXor')

    比较运算符

    • tf.equal(x, y, name=None)

    • tf.not_equal(x, y, name=None)

    • tf.less(x, y, name=None)

    • tf.less_equal(x, y, name=None)

    • tf.greater(x, y, name=None)

    • tf.greater_equal(x, y, name=None)

    • tf.select(condition, t, e, name=None)

    • tf.where(input, name=None)

    判断检查

    • tf.is_finite(x, name=None)

    • tf.is_inf(x, name=None)

    • tf.is_nan(x, name=None)

    • tf.verify_tensor_all_finite(t, msg, name=None) 断言张量不包含任何NaN或Inf

    • tf.check_numerics(tensor, message, name=None)

    • tf.add_check_numerics_ops()

    • tf.Assert(condition, data, summarize=None, name=None)

    • tf.Print(input_, data, message=None, first_n=None, summarize=None, name=None)。

    运行注意

    import   os
        
    os.environ['TF_CPP_MIN_LOG_LEVEL']='2'

     实例代码:

    import tensorflow as tf
    import os
    os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
    a = tf.constant(2)
    # 0维() 一维(4) 二维(2,3) 三维(2,3,4)
    # with tf.Session() as sess:
    #     print(a.shape)
    #     print(a.op)
    #     print(a.name)
    b = tf.placeholder(tf.float32,[None,2])
    print(b)
    b.set_shape([3,2])
    print(b)
    # 一旦静态形状已经固定则不能设置了
    # b.set_shape([3,2]) ValueError
    # 下面是动态修改,就是生成一个和原来数据的元素数量匹配的新的
    c = tf.reshape(b,[2,3])
    print(c)
  • 相关阅读:
    第四讲动手动脑集课后作业
    第三讲课后作业
    课后作业01
    《大道至简》第一章伪代码读后感
    第八周学习进度条
    第七周学习进度条
    求一维联通数组的最大子数组之和
    求二维数组的最大联通子数组之和
    第六周学习进度条
    求一个数组的最大子数组之和
  • 原文地址:https://www.cnblogs.com/TimVerion/p/11224106.html
Copyright © 2020-2023  润新知