将这里的代码在项目中执行下载并安装数据集。
执行下面代码,训练、并评估模型:
# _*_coding:utf-8_*_
import inputdata
mnist = inputdata.read_data_sets('MNIST_data', one_hot=True) import tensorflow as tf x = tf.placeholder("float",[None, 784])
W = tf.Variable(tf.zeros([784,10]))
b = tf.Variable(tf.zeros([10])) y = tf.nn.softmax(tf.matmul(x,W) + b) # 预测值
y_ = tf.placeholder("float", [None, 10]) # 真实值 # 训练模型
cross_entropy = -tf.reduce_sum(y_*tf.log(y)) # 交叉熵,交叉熵是用来衡量我们的预测用于描述真相
# 的低效性。注意这里是对所有记录所有假设的sum操作 train_step= tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy) # 调用梯度下降,TensorFlow会自动使用反向传播算法
# 并且通过minimize来指定要最小化的代价方程 # 初始化变量
init = tf.initialize_all_variables() # 运行
sess = tf.Session()
sess.run(init) for i in range(1000):
batch_xs, batch_ys = mnist.train.next_batch(100) # 随机训练 (stochastic training), 减小计算开销
sess.run(train_step, feed_dict={x: batch_xs, y_:batch_ys}) # 评估模型
correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1)) # argmax返回的是沿着某个轴的最大值的索引值 accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float")) # cast把布尔值转为浮点值 print sess.run(accuracy, feed_dict={x: mnist.test.images, y_:mnist.test.labels}) sess.close()
运行结果:(由于是随机训练每次结果可能一样)
0.9131