• TensorFlow(五):手写数字识别加强版


    # 该版本的最终识别准确率达到98%以上
    
    import tensorflow as tf
    from tensorflow.examples.tutorials.mnist import input_data
    
    # 载入数据集
    mnist=input_data.read_data_sets('MNIST_data',one_hot=True)
    # 每个批次的大小
    batch_size=100
    # 计算一共有多少个批次
    n_batch=mnist.train.num_examples//batch_size
    
    # 定义两个placeholder
    x=tf.placeholder(tf.float32,[None,784])
    y=tf.placeholder(tf.float32,[None,10])
    keep_prob=tf.placeholder(tf.float32)
    lr=tf.Variable(0.001,dtype=tf.float32)
    
    
    # 创建神经网络
    # 使用正态分布以及非0的偏置值
    # 输入层
    W1=tf.Variable(tf.truncated_normal([784,500],stddev=0.1))
    b1=tf.Variable(tf.zeros([500])+0.1)
    L1=tf.nn.tanh(tf.matmul(x,W1)+b1)# 使用双曲正切的激活函数
    L1_drop=tf.nn.dropout(L1,keep_prob) # 设置成多少个神经元工作,1为100%
    
    W2=tf.Variable(tf.truncated_normal([500,200],stddev=0.1))
    b2=tf.Variable(tf.zeros([200])+0.1)
    L2=tf.nn.tanh(tf.matmul(L1_drop,W2)+b2)# 使用双曲正切的激活函数
    L2_drop=tf.nn.dropout(L2,keep_prob) # 设置成多少个神经元工作,1为100%
    
    # 输出层
    W3=tf.Variable(tf.truncated_normal([200,10],stddev=0.1))
    b3=tf.Variable(tf.zeros([10])+0.1)
    prediction=tf.nn.softmax(tf.matmul(L2_drop,W3)+b3)
    
    # 使用交叉熵的情况
    loss=tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits_v2(labels=y,logits=prediction))
    
    # 使用adam优化器
    train_step=tf.train.AdamOptimizer(lr).minimize(loss)
    
    # 初始化变量
    init=tf.global_variables_initializer()
    # 求最大值在哪个位置,结果存放在一个布尔值列表中
    correct_prediction=tf.equal(tf.argmax(y,1),tf.argmax(prediction,1))# argmax返回一维张量中最大值所在的位置
    # 求准确率
    accuracy=tf.reduce_mean(tf.cast(correct_prediction,tf.float32)) # cast作用是将布尔值转换为浮点型。
    with tf.Session() as sess:
        sess.run(init)
        for epoch in range(21):
            for batch in range(n_batch):
                sess.run(tf.assign(lr,0.001*(0.98**epoch)))
                batch_xs,batch_ys=mnist.train.next_batch(batch_size)
                sess.run(train_step,feed_dict={x:batch_xs,y:batch_ys,keep_prob:1.0}) # keep_drop:表示多少神经元工作,训练时减少神经元可以防止过拟合,如换成0.7
            #求准确率
            # 测试集
            test_acc=sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels,keep_prob:1.0})
            learning_rate=sess.run(lr)
            # 训练集
    #         train_acc=sess.run(accuracy,feed_dict={x:mnist.train.images,y:mnist.train.labels,keep_prob:1.0})
            print('Iter:'+str(epoch)+',Testing Accuracy:'+str(test_acc))
            print('Iter:'+str(epoch)+',Training rate:'+str(learning_rate))
            print()
  • 相关阅读:
    散列函数的构造方法
    散列表(哈希表)查找
    散列表,哈希表,散列表查找法
    多路查找树之2-3-4树和B树
    多路查找树之2-3树的删除原理
    多路查找树之2-3树的插入原理
    多路查找树之2-3树
    字典:当索引不好用时2
    字典:当索引不好用时
    平衡二叉树的实现原理(代码实现)- 数据结构和算法78
  • 原文地址:https://www.cnblogs.com/felixwang2/p/9184169.html
Copyright © 2020-2023  润新知