• TensorFlow2.0教程-AutoGraph是什么?


    1.tf.function装饰器

    当使用tf.function注释函数时,可以像调用任何其他函数一样调用它。 它将被编译成图,这意味着可以获得更快执行,更好地在GPU或TPU上运行或导出到SavedModel。

    @tf.function
    def simple_nn_layer(x, y):
        return tf.nn.relu(tf.matmul(x, y))
    
    
    x = tf.random.uniform((3, 3))
    y = tf.random.uniform((3, 3))
    
    simple_nn_layer(x, y)
    <tf.Tensor: id=25, shape=(3, 3), dtype=float32, numpy=
    array([[0.75023645, 0.19047515, 0.10737072],
           [1.1521267 , 0.49491584, 0.19416495],
           [0.5541876 , 0.24642248, 0.09543521]], dtype=float32)>

    如果我们检查注释的结果,我们可以看到它是一个特殊的可调用函数,它处理与TensorFlow运行时的所有交互。

    simple_nn_layer
    <tensorflow.python.eager.def_function.Function at 0x7ff5e164eb38>

    如果代码使用多个函数,则无需对它们进行全部注释 - 从带注释函数调用的任何函数也将以图形模式运行。

    def linear_layer(x):
        return 2 * x + 1
    
    
    @tf.function
    def deep_net(x):
        return tf.nn.relu(linear_layer(x))
    
    
    deep_net(tf.constant((1, 2, 3)))
    <tf.Tensor: id=39, shape=(3,), dtype=int32, numpy=array([3, 5, 7], dtype=int32)>

    2.使用Python控制流程

    在tf.function中使用依赖于数据的控制流时,可以使用Python控制流语句,AutoGraph会将它们转换为适当的TensorFlow操作。 例如,如果语句依赖于Tensor,则语句将转换为tf.cond()。

    @tf.function
    def square_if_positive(x):
      if x > 0:
        x = x * x
      else:
        x = 0
      return x
    
    
    print('square_if_positive(2) = {}'.format(square_if_positive(tf.constant(2))))
    print('square_if_positive(-2) = {}'.format(square_if_positive(tf.constant(-2))))
    square_if_positive(2) = 4
    square_if_positive(-2) = 0

    AutoGraph支持常见的Python语句,例如while,if,break,continue和return,支持嵌套。 这意味着可以在while和if语句的条件下使用Tensor表达式,或者在for循环中迭代Tensor。

    @tf.function
    def sum_even(items):
      s = 0
      for c in items:
        if c % 2 > 0:
          continue
        s += c
      return s
    
    
    sum_even(tf.constant([10, 12, 15, 20]))
    <tf.Tensor: id=149, shape=(), dtype=int32, numpy=42>

    AutoGraph还为高级用户提供了低级API。 例如,我们可以使用它来查看生成的代码。

    print(tf.autograph.to_code(sum_even.python_function, experimental_optional_features=None))
    from __future__ import print_function
    
    def tf__sum_even(items):
      do_return = False
      retval_ = None
      s = 0
    
      def loop_body(loop_vars, s_2):
        c = loop_vars
        continue_ = False
        cond = c % 2 > 0
    
        def if_true():
          continue_ = True
          return continue_
    
        def if_false():
          return continue_
        continue_ = ag__.if_stmt(cond, if_true, if_false)
        cond_1 = ag__.not_(continue_)
    
        def if_true_1():
          s_1, = s_2,
          s_1 += c
          return s_1
    
        def if_false_1():
          return s_2
        s_2 = ag__.if_stmt(cond_1, if_true_1, if_false_1)
        return s_2,
      s, = ag__.for_stmt(items, None, loop_body, (s,))
      do_return = True
      retval_ = s
      return retval_



    tfsum_even.autograph_info = {}

    一个更复杂的控制流程的例子:

    @tf.function
    def fizzbuzz(n):
      msg = tf.constant('')
      for i in tf.range(n):
        if tf.equal(i % 3, 0):
          msg += 'Fizz'
        elif tf.equal(i % 5, 0):
          msg += 'Buzz'
        else:
          msg += tf.as_string(i)
        msg += '
    '
      return msg
    
    
    print(fizzbuzz(tf.constant(15)).numpy().decode())
    Fizz
    1
    2
    Fizz
    4
    Buzz
    Fizz
    7
    8
    Fizz
    Buzz
    11
    Fizz
    13
    14

    3.Keras和AutoGraph

    也可以将tf.function与对象方法一起使用。 例如,可以通过注释模型的调用函数来装饰自定义Keras模型。

    class CustomModel(tf.keras.models.Model):
    
        @tf.function
        def call(self, input_data):
            if tf.reduce_mean(input_data) > 0:
                return input_data
            else:
                return input_data // 2
    
    
    model = CustomModel()
    
    model(tf.constant([-2, -4]))
    <tf.Tensor: id=281, shape=(2,), dtype=int32, numpy=array([-1, -2], dtype=int32)>

    副作用 就像在eager模式下一样,你可以使用带有副作用的操作,比如通常在tf.function中的tf.assign或tf.print,它会插入必要的控件依赖项以确保它们按顺序执行。

    v = tf.Variable(5)
    
    @tf.function
    def find_next_odd():
      v.assign(v + 1)
      if tf.equal(v % 2, 0):
        v.assign(v + 1)
    
    
    find_next_odd()
    v
    <tf.Variable 'Variable:0' shape=() dtype=int32, numpy=7>

    4.用AutoGraph训练一个简单模型

    def prepare_mnist_features_and_labels(x, y):
      x = tf.cast(x, tf.float32) / 255.0
      y = tf.cast(y, tf.int64)
      return x, y
    
    def mnist_dataset():
      (x, y), _ = tf.keras.datasets.mnist.load_data()
      ds = tf.data.Dataset.from_tensor_slices((x, y))
      ds = ds.map(prepare_mnist_features_and_labels)
      ds = ds.take(20000).shuffle(20000).batch(100)
      return ds
    
    train_dataset = mnist_dataset()
    model = tf.keras.Sequential((
        tf.keras.layers.Reshape(target_shape=(28 * 28,), input_shape=(28, 28)),
        tf.keras.layers.Dense(100, activation='relu'),
        tf.keras.layers.Dense(100, activation='relu'),
        tf.keras.layers.Dense(10)))
    model.build()
    optimizer = tf.keras.optimizers.Adam()
    compute_loss = tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True)
    
    compute_accuracy = tf.keras.metrics.SparseCategoricalAccuracy()
    
    
    def train_one_step(model, optimizer, x, y):
      with tf.GradientTape() as tape:
        logits = model(x)
        loss = compute_loss(y, logits)
    
      grads = tape.gradient(loss, model.trainable_variables)
      optimizer.apply_gradients(zip(grads, model.trainable_variables))
    
      compute_accuracy(y, logits)
      return loss
    
    
    @tf.function
    def train(model, optimizer):
      train_ds = mnist_dataset()
      step = 0
      loss = 0.0
      accuracy = 0.0
      for x, y in train_ds:
        step += 1
        loss = train_one_step(model, optimizer, x, y)
        if tf.equal(step % 10, 0):
          tf.print('Step', step, ': loss', loss, '; accuracy', compute_accuracy.result())
      return step, loss, accuracy
    
    step, loss, accuracy = train(model, optimizer)
    print('Final step', step, ': loss', loss, '; accuracy', compute_accuracy.result())
    Step 10 : loss 1.85892391 ; accuracy 0.37
    ...
    Step 190 : loss 0.213473886 ; accuracy 0.848105252
    Step 200 : loss 0.224886 ; accuracy 0.85145
    Final step tf.Tensor(200, shape=(), dtype=int32) : loss tf.Tensor(0.224886, shape=(), dtype=float32) ; accuracy tf.Tensor(0.85145, shape=(), dtype=float32)

    5.关于批处理的说明

    在实际应用中,批处理对性能至关重要。 转换为AutoGraph的最佳代码是在批处理级别决定控制流的代码。 如果在单个示例级别做出决策,请尝试使用批处理API来维护性能。

    def square_if_positive(x):
      return [i ** 2 if i > 0 else i for i in x]
    
    
    square_if_positive(range(-5, 5))
    [-5, -4, -3, -2, -1, 0, 1, 4, 9, 16]
    # 在tensorflow中上面的代码应该改成下面所示
    @tf.function
    def square_if_positive_naive(x):
      result = tf.TensorArray(tf.int32, size=x.shape[0])
      for i in tf.range(x.shape[0]):
        if x[i] > 0:
          result = result.write(i, x[i] ** 2)
        else:
          result = result.write(i, x[i])
      return result.stack()
    
    
    square_if_positive_naive(tf.range(-5, 5))
    <tf.Tensor: id=1544, shape=(10,), dtype=int32, numpy=array([-5, -4, -3, -2, -1,  0,  1,  4,  9, 16], dtype=int32)>
    # 也可以这么写
    def square_if_positive_vectorized(x):
      return tf.where(x > 0, x ** 2, x)
    
    
    square_if_positive_vectorized(tf.range(-5, 5))
    <tf.Tensor: id=1554, shape=(10,), dtype=int32, numpy=array([-5, -4, -3, -2, -1,  0,  1,  4,  9, 16], dtype=int32)>
  • 相关阅读:
    鼠标滑动显示层
    软件过程+改进 +UML
    接口和抽象类的区别
    SQL SERVER – Difference Between EXEC and EXECUTE vs EXEC() – Use EXEC/EXECUTE for SP always
    XDocument.Parse Method (String)
    Robocopy use case
    Two Solutions to fix issue: ORDER BY items must appear in the select list if the statement contains a UNION, ...
    [转载]:SQL Server 连接字符串和身份验证
    Insert Data From One Table to Another
    volatile (C# Reference)
  • 原文地址:https://www.cnblogs.com/peijz/p/12848565.html
Copyright © 2020-2023  润新知