# 该版本的最终识别准确率达到98%以上 import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data # 载入数据集 mnist=input_data.read_data_sets('MNIST_data',one_hot=True) # 每个批次的大小 batch_size=100 # 计算一共有多少个批次 n_batch=mnist.train.num_examples//batch_size # 定义两个placeholder x=tf.placeholder(tf.float32,[None,784]) y=tf.placeholder(tf.float32,[None,10]) keep_prob=tf.placeholder(tf.float32) lr=tf.Variable(0.001,dtype=tf.float32) # 创建神经网络 # 使用正态分布以及非0的偏置值 # 输入层 W1=tf.Variable(tf.truncated_normal([784,500],stddev=0.1)) b1=tf.Variable(tf.zeros([500])+0.1) L1=tf.nn.tanh(tf.matmul(x,W1)+b1)# 使用双曲正切的激活函数 L1_drop=tf.nn.dropout(L1,keep_prob) # 设置成多少个神经元工作,1为100% W2=tf.Variable(tf.truncated_normal([500,200],stddev=0.1)) b2=tf.Variable(tf.zeros([200])+0.1) L2=tf.nn.tanh(tf.matmul(L1_drop,W2)+b2)# 使用双曲正切的激活函数 L2_drop=tf.nn.dropout(L2,keep_prob) # 设置成多少个神经元工作,1为100% # 输出层 W3=tf.Variable(tf.truncated_normal([200,10],stddev=0.1)) b3=tf.Variable(tf.zeros([10])+0.1) prediction=tf.nn.softmax(tf.matmul(L2_drop,W3)+b3) # 使用交叉熵的情况 loss=tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits_v2(labels=y,logits=prediction)) # 使用adam优化器 train_step=tf.train.AdamOptimizer(lr).minimize(loss) # 初始化变量 init=tf.global_variables_initializer() # 求最大值在哪个位置,结果存放在一个布尔值列表中 correct_prediction=tf.equal(tf.argmax(y,1),tf.argmax(prediction,1))# argmax返回一维张量中最大值所在的位置 # 求准确率 accuracy=tf.reduce_mean(tf.cast(correct_prediction,tf.float32)) # cast作用是将布尔值转换为浮点型。 with tf.Session() as sess: sess.run(init) for epoch in range(21): for batch in range(n_batch): sess.run(tf.assign(lr,0.001*(0.98**epoch))) batch_xs,batch_ys=mnist.train.next_batch(batch_size) sess.run(train_step,feed_dict={x:batch_xs,y:batch_ys,keep_prob:1.0}) # keep_drop:表示多少神经元工作,训练时减少神经元可以防止过拟合,如换成0.7 #求准确率 # 测试集 test_acc=sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels,keep_prob:1.0}) learning_rate=sess.run(lr) # 训练集 # train_acc=sess.run(accuracy,feed_dict={x:mnist.train.images,y:mnist.train.labels,keep_prob:1.0}) print('Iter:'+str(epoch)+',Testing Accuracy:'+str(test_acc)) print('Iter:'+str(epoch)+',Training rate:'+str(learning_rate)) print()