• 深度学习原理与框架-递归神经网络-RNN网络基本框架(代码?) 1.rnn.LSTMCell(生成单层LSTM) 2.rnn.DropoutWrapper(对rnn进行dropout操作) 3.tf.contrib.rnn.MultiRNNCell(堆叠多层LSTM) 4.mlstm_cell.zero_state(state初始化) 5.mlstm_cell(进行LSTM求解)


    问题:LSTM的输出值output和state是否是一样的

    1. rnn.LSTMCell(num_hidden, reuse=tf.get_variable_scope().reuse)  # 构建单层的LSTM网络

    参数说明:num_hidden表示隐藏层的个数,reuse表示LSTM的参数进行复用

    2.rnn.DropoutWrapper(cell, output_keep_prob=keep_prob) # 表示对rnn的输出层进行dropout

    参数说明:cell表示单层的lstm,out_keep_prob表示keep_prob的比例,即保存的比例

    3. tf.contrib.rnn.MultiRNNCell([create_rnn_layer for _ in range(num_lstm)],  state_is_tuple=True) # 构建多层的LSTM网络

    参数说明:[create_rnn_layer for _ in range(num_lstm)]构建LSTM的列表,state_is_tuple表示需要经过重叠

    4.mlstm_cell.zero_state(batch_size, tf.float32) 表示进行state的初始值,维度为batch_size * num_hidden

    参数说明:batch_size表示输入图片的个数,tf.float32表示类型

    5.(output, state) = mlstm_cell(X[:, timestamp, :], state) 表示每一次输入获得输出值和state,

    参数说明:X[:, timestamp, :] 表示X的输入值,state表示上一层的输出值

    6.np.asarray(s) # 在改变数据类型的同时将不复制原来的数据

    参数说明:s表示输入的列表

    7.plt.bar(bar_index, pre[0], width=20, aligh='center') # 做直方图

    参数说明:bar_index表示x轴的位置,pre[0] 表示y轴的大小, width表示宽度,aligh表示直方图的对其方式

     代码说明:

           数据说明:mnist数据集,将一张图片分为28次输入,每次输入为一行28个像素点,从上到下输入

           模型说明:模型的隐藏层的参数为256层,每次迭代输入的state的大小为_batch_size * hidden_num, 模型的层数为2层LSTM

    代码主要是由三部分组成:

             第一部分:进行模型的训练和预测

             第二部分:选取5张图片,打印模型的outputs输出层的大小

             第三部分:选择一张图片,输出outputs,使用sess.run() 获得w和b的实际值,循环outputs,使用sess.run(tf.nn.sotfmax(tf.matmul(output, w) + b)), 对每一层的输出概率做图,一共是28层

    第一部分:

    第一步:mnist数据集的输入

    第二步:超参数的设置,学习率,每次输入的大小,输入的次数,隐藏层的个数,分类的类别, LSTM的层数

    第三步:使用tf.placeholder()定义输入,包括_X, Y, batch_size, keep_prob, 同时对_X进行维度的变换,使得其变成[-1, 28, 28]

    第四步:定义create_rnn_layer() 用于生成单层的rnn网络,rnn.LSTMCell构造单层LSTM网络, rnn.DropoutWrapper进行dropout层的定义

    第五步:mlstm_cell = tf.contrib.rnn.MultiRNNCell进行多层LSTM的网络构建

    第六步:使用mlstm_cell.zero_state(batch_size, dtype=tf.float32) # 进行初始state的构建

    第七步:对timestamp_size进行循环,如果循环次数大于1,就使用tf.get_variable_scope().reuse_variables() 进行参数的复用, (output, state) = mlstm_cell(X[:, timestamp, :], state), 将获得的output添加到outputs中

    第八步:取最后一个outputs作为最后的结果输出,大小为[?, 256]

    第九步:构造W和b参数进行最后结果的预测,即将256转换为10分类

    第十步:使用tf.nn.softmax(tf.matmul(h_output, W) + b) 获得输出的softmax概率值

    第十一步:使用-tf.reduce_mean(y * tf.log(y_pre)) # 构造损失函数

    第十二步:使用tf.train.Adaoptimer() 构造降低损失值的train_op 

    第十三步:使用tf.equal 和tf.reduce_mean构造准确率

    第十四步:进行循环操作,使用mnist.train.next_batch(_batch_size)获得数据

    第十五步:sess.run(train_op) 进行降低损失值的操作,迭代200次打印训练集的准确率, 迭代的epoch值

    第十六步:打印测试集的训练结果,

    import tensorflow as tf
    import numpy as np
    from tensorflow.contrib import rnn
    from tensorflow.examples.tutorials.mnist import input_data
    import matplotlib.pyplot as plt
    
    # 第一步数据读取
    mnist = input_data.read_data_sets('/data', one_hot=True)
    
    # 第二步:超参数设置
    lr = 1e-3 # 学习率的设置
    input_num = 28
    timestamp_size = 28
    lstm_num = 2
    num_hidden = 256
    num_classes = 10
    
    # 第三步:输入参数的初始化操作
    _X = tf.placeholder(tf.float32, [None, 784])
    y = tf.placeholder(tf.float32, [None, num_classes])
    batch_size = tf.placeholder(tf.int32, [])
    keep_prob = tf.placeholder(tf.float32, [])
    
    # 改变输入的维度,变成N*28*28
    X = tf.reshape(_X, [-1, timestamp_size, input_num])
    
    # 第四步:构造函数创建多层的LSTM
    def create_rnn_layer():
        cell = rnn.LSTMCell(num_hidden, reuse=tf.get_variable_scope().reuse)
        return rnn.DropoutWrapper(cell, output_keep_prob=keep_prob)
    
    # 第五步:使用tf.contrib.rnn.MultiRNNCell
    mlstm_cell = tf.contrib.rnn.MultiRNNCell([create_rnn_layer() for _ in range(lstm_num)], state_is_tuple=True)
    
    # 第六步:使用mlstm_cell.zero_state构造初始化的state
    init_state = mlstm_cell.zero_state(batch_size, dtype=tf.float32)
    
    # 第七步:对每一个输入的数据进行迭代,获得state,并作为下一次的输入,重新输入到LSTM网络中,最后的输出即为预测结果
    outputs = list()
    state = init_state
    with tf.variable_scope('RNN'):
        for timestamp in range(timestamp_size):
    
            if timestamp > 0:
                tf.get_variable_scope().reuse_variables()
            (output, state) = mlstm_cell(X[:, timestamp, :], state)
            outputs.append(output)
    
    # 第八步:使用最后一个结果,作为输出值
    h_state = outputs[-1]
    # 第九步:定义W和b,用于将LSTM的输出变成预测的输出
    W = tf.Variable(tf.truncated_normal([num_hidden, num_classes], stddev=0.1), dtype=tf.float32)
    b = tf.Variable(tf.constant(0.1, shape=[num_classes]), dtype=tf.float32)
    # 第十步:使用tf.matmul进行线性变换,使用softmax将结果转换为概率值
    y_pre = tf.nn.softmax(tf.matmul(h_state, W) + b)
    # 第十一步:使用tf.log(y_pre) * y 获得交叉熵损失函数
    loss = -tf.reduce_mean(tf.log(y_pre) * y)
    # 第十二步:使用tf.train.Adam降低损失值
    train_op = tf.train.AdamOptimizer(lr).minimize(loss)
    # 第十三步:使用tf.equal和tf.reduce_mean 获得准确率
    correct_pred = tf.equal(tf.argmax(y_pre, 1), tf.argmax(y, 1))
    accurracy = tf.reduce_mean(tf.cast(correct_pred, 'float'))
    
    # 进行初始化操作
    sess = tf.Session()
    sess.run(tf.global_variables_initializer())
    # 一个batch_size的大小
    _batch_size = 64
    for i in range(2000):
        # 循环,第十四步:获得一个batch的数据
        batch = mnist.train.next_batch(_batch_size)
        # 第十五步:训练train_op, keep_prob等于0.5, 当迭代次数为200时,打印训练的准确度
        if i % 200 == 0:
            train_accur = sess.run(accurracy, feed_dict={_X:batch[0],
                                                           y:batch[1],
                                                           keep_prob:1.0,
                                                           batch_size:_batch_size})
            print('train epoch %d train iteration %d train accur %g'%(mnist.train.epochs_completed, i, train_accur))
        sess.run(train_op, feed_dict={_X:batch[0], y:batch[1], keep_prob:0.5, batch_size:_batch_size})
    # 第十六步:打印测试集的准确率
    print('test accur %g'%(sess.run(accurracy, feed_dict={_X:mnist.test.images, y:mnist.test.labels, keep_prob:1.0, batch_size:mnist.test.images.shape[0]})))

    第二部分:输入_batch_size = 5 的类别值,打印outputs的维度

    第一步:定义_batch_size = 5 

    第二步:使用mnist.train.next_batch(_batch_size) 获得X_batch, y_batch

    第三步:_outputs, _state = sess.run([outputs, state], feed_dict={}) 获得outputs的结果

    第四步:打印outputs的维度, 使用print(np.asarray(outputs).shape)

    # 第二部分:打印outputs的维度
    # 第一步:定义输入的_batch_size
    _batch_size = 5
    # 第二步:获得mnist中Train的数据
    X_batch, y_batch = mnist.train.next_batch(_batch_size)
    # 第三步:使用sess.run获得,outputs的实际值
    _outputs, state = sess.run([outputs, state], feed_dict={_X:X_batch, y:y_batch, keep_prob:1.0, batch_size:_batch_size})
    # 第四步:打印_outputs的维度
    print('outputs shape=', np.asarray(_outputs).shape)

      outputs的维度第一个维度,表示28个输出,5表示5张图片,256表示隐藏层的个数

    第三部分:抽取一张图片,做出每一个输出的概率直方图

    第一步:获得一张图片,将其维度转换为[-1, 784] 即二维,获得图片对应的标签,将其维度转换为[-1, 10] 即二维

    第二步:使用sess.run(outputs, feed_dict) 获得这张图片的outputs输出值

    第三步:使用sess.run获得W和b,并赋值为h_w和h_b

    第四步:循环outputs,使用tf.nn.softmax(tf.matmul(x_batch, h_w) + h_b)

    第五步:画直方图,plt.bar(bar_index, pro[0], width=20, align='center')  bar_index等于np.arange(num_classes), plt.axis('off')

    # 第三部分:对每一部分的输出值进行概率的作图
    # 第一步:图片的输入,即将图片的维度进行变换,对应标签的输入,对图片的标签进行维度变换
    image = mnist.train.images[4]
    image.shape = [-1, 784]
    image_size = image.reshape([28, 28])
    plt.imshow(image_size, cmap='gray')
    plt.show()
    
    y_labels = mnist.train.labels[4]
    y_labels.shape = [-1, num_classes]
    # 第二步:使用sess.run(outputs)获得outputs的输出值
    output_array = np.array(sess.run(outputs, feed_dict={_X:image, y:y_labels, keep_prob:1.0, batch_size:1}))
    # 对outputs转换为二维类型,即[28, 1, 256] 转换为[28, 256]
    output_array.shape = [28, 256]
    # 第三步:使用sess.run获得W和b的实际值
    h_W = sess.run(W, feed_dict={_X:image, y:y_labels, keep_prob:1.0, batch_size:1})
    h_b = sess.run(b, feed_dict={_X:image, y:y_labels, keep_prob:1.0, batch_size:1})
    
    # 构建bar_index的X轴坐标
    bar_index = np.arange(num_classes)
    plt.figure()
    for i in range(output_array.shape[0]):
        
        plt.subplot(4, 7, i+1)
        # 将[1, 256]重新转换为[1, 256]做一个维度的验证
        X3_h_state = output_array[i, :].reshape([-1, num_hidden])
        # 第四步:使用tf.nn.softmax将输出值转换为各个类别的概率值
        pre = sess.run(tf.nn.softmax(tf.matmul(X3_h_state, h_W) + h_b))
        # 第五步:画直方图操作
        plt.bar(bar_index, pre[0], width=0.2, align='center')
        plt.axis('off')
    plt.show()

     最后几次的预测结果,主要是以0为最终的结果

  • 相关阅读:
    python爬虫基础(requests、BeautifulSoup)
    python中字典按键、值进行排序
    进程和线程的区别
    MySQL中的索引
    python中浅拷贝和深拷贝的区别
    谈谈final、finally、finalize的区别
    python中布尔值是false
    生成器的阐释
    文件处理
    内置函数
  • 原文地址:https://www.cnblogs.com/my-love-is-python/p/10546618.html
Copyright © 2020-2023  润新知