注意:本文只为读书笔记。
第一章 起步
- 起步 - [介绍](SOURCE/get_started/introduction.md) - [下载及安装](SOURCE/get_started/os_setup.md) - [基本用法](SOURCE/get_started/basic_usage.md)
第二章 基础教程
- 教程 - [总览](SOURCE/tutorials/overview.md) - [MNIST 机器学习入门](SOURCE/tutorials/mnist_beginners.md) - [深入 MNIST](SOURCE/tutorials/mnist_pros.md) - [TensorFlow 运作方式入门](SOURCE/tutorials/mnist_tf.md) - [卷积神经网络](SOURCE/tutorials/deep_cnn.md) - [字词的向量表示](SOURCE/tutorials/word2vec.md) - [递归神经网络](SOURCE/tutorials/recurrent.md) - [曼德布洛特(Mandelbrot)集合](SOURCE/tutorials/mandelbrot.md) - [偏微分方程](SOURCE/tutorials/pdes.md) - [MNIST数据下载](SOURCE/tutorials/mnist_download.md)
第三章 运作方式
- 运作方式 - [总览](SOURCE/how_tos/overview.md) - [变量:创建、初始化、保存和加载](SOURCE/how_tos/variables.md) - [TensorBoard:可视化学习](SOURCE/how_tos/summaries_and_tensorboard.md) - [TensorBoard:图表可视化](SOURCE/how_tos/graph_viz.md) - [读取数据](SOURCE/how_tos/reading_data.md) - [线程和队列](SOURCE/how_tos/threading_and_queues.md) - [添加新的Op](SOURCE/how_tos/adding_an_op.md) - [自定义数据读取](SOURCE/how_tos/new_data_formats.md) - [使用gpu](SOURCE/how_tos/using_gpu.md) - [共享变量](SOURCE/how_tos/variable_scope.md)
第四章 Python API
第五章 C++ API
第六章 资源
- 资源 - [总览](SOURCE/resources/overview.md) - [BibTex 引用](SOURCE/resources/bib.md) - [示例使用](SOURCE/resources/uses.md) - [FAQ](SOURCE/resources/faq.md) - [术语表](SOURCE/resources/glossary.md) - [Tensor排名、形状和类型](SOURCE/resources/dims_types.md)
第七章 其他
- 其他 - [常见问题汇总](SOURCE/faq.md) - [相关资源](SOURCE/resource.md) - [个人学习心得](SOURCE/personal.md)
第一章 起步
TensorFlow安装?
http://www.cnblogs.com/2008nmj/p/8710527.html
第二章 基础教程
2.1 MNIST机器学习入门
2.1.1 The MNIST Data | MNIST数据集
2.1.2 Softmax回归介绍
evidencei是指x属于数字i的证据 xj是784个像素。这是图像x是属于类i的可能。
这里i属于0-9共10个数,W为10x784,x为784个像素元的矢量。
将evidencei转换为y,(利用softmax函数),
像素xj属于类yi的可能性 共有784x10个乘法要计算 对应的公式方程为:
更进一步,可以写成更加紧凑的方式:
y=softmax(Wx+b)
2.1.3 实现回归模型
为了在python中高效的进行数值计算,我们通常会调用如Numpy外部函数库,把类似矩阵乘法这样的复杂运算使用其他外部语言实现。不幸的是,从外部计算切换回Python的每一个操作,仍然是一个很大的开销。如果你用GPU来进行外部计算,这样的开销会更大。用分布式的计算方式,也会花费更多的资源用来传输数据。
TensorFlow也把复杂的计算放在python之外完成,但是为了避免前面说的那些开销,它做了进一步完善。TensorFlow不单独地运行单一的复杂计算,而是让我们可以先用图描述一系列可交互的计算操作,然后全部一起在Python之外运行。(这样类似的运行方式,可以在不少的机器学习库中看到。)
forwithy@forwithy-virtual-machine:~$ python Python 2.7.6 (default, Oct 26 2016, 20:30:19) [GCC 4.8.4] on linux2 Type "help", "copyright", "credits" or "license" for more information. >>> import tensorflow as tf >>> import input_data >>> mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) Extracting MNIST_data/train-images-idx3-ubyte.gz Extracting MNIST_data/train-labels-idx1-ubyte.gz Extracting MNIST_data/t10k-images-idx3-ubyte.gz Extracting MNIST_data/t10k-labels-idx1-ubyte.gz >>> x = tf.placeholder("float", [None, 784]) >>> W = tf.Variable(tf.zeros([784, 10])) >>> b = tf.Variable(tf.zeros([10]) >>> y = tf.nn.softmax(tf.matmul(x, W) + b)
2.1.4 训练模型
为了训练我们的模型,我们首先需要定义一个指标来评估这个模型是好的。其实,在机器学习,我们通常定义指标来表示一个模型是坏的,这个指标称为成本(cost)或损失(loss),然后尽量最小化这个指标。但是,这两种方式是相同的。
一个非常常见的,非常漂亮的成本函数是“交叉熵”(cross-entropy)。交叉熵产生于信息论里面的信息压缩编码技术,但是它后来演变成为从博弈论到机器学习等其他领域
里的重要技术手段。它的定义如下:
其中y是我们预测的概率分布,y'是实际的分布(我们输入的one-hot vector)。比较粗糙的理解是,交叉熵是用来衡量我们的预测用于描述真相的低效性。更详细的关于交叉熵的解释超出本教程的范畴,但是你很有必要好好理解它。
>>> y_ = tf.placeholder("float", [None, 10]) >>> cross_entropy = -tf.reduce_sum(y_*tf.log(y)) >>> train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy) >>> init = tf.initialize_all_variables() >>> sess = tf.Session() I tensorflow/core/common_runtime/local_device.cc:40] Local device intra op parallelism threads: 1 I tensorflow/core/common_runtime/direct_session.cc:58] Direct session inter op parallelism threads: 1 >>> sess.run(init) >>> for i in range(1000): ... batch_xs, batch_ys = mnist.train.next_batch(100) ... sess.run(train_step, feed_dict={x:batch_xs, y_:batch_ys}) ... >>> >>> correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1)) >>> accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float")) >>> print sess.run(accuracy, feed_dict={x:mnist.test.images, y_:mnist.test.labls}) 0.9188
2.1.5 Evaluating Our Model || 评估我们的模型
首先让我们找出那些预测正确的标签。tf.argmax()是一个非常有用的函数,它能给你在一个张量里沿着某条轴的最高条目的索引值。比如, tf.argmax(y,1)是模型认为每个输入最有可能对应的那些标签,而tf.argmax(y_,1)代表正确的标签。
2.2 深入 MNIST
https://tensorflow.googlesource.com/tensorflow/+/master/tensorflow/g3doc/tutorials/mnist/