通过从零到一的教程,我们已经得到了通过mnist训练集生成的caffemodel,主要包含下面四个文件:
接下来就可以利用模型进行测试了。关于测试方法按照上篇教程还是选择bat文件,当然python、matlab更为方便,比如可以迅速把识别错误的图片显示出来。
一、均值文件mean.binaryproto
在进行分类之前首先需要产生所有图片的平均值图片,真正分类时的每个图片都会先减去这张平均值图片再进行分类。这样的处理方式能够提升分类的准确率。
产生均值文件的方法是利用解决方案中的compute_image_mean.exe,位于目录caffe-windowsBuildx64Release下。回到caffe-windows根目录下创建一个mnist_mean.txt,写入如下内容:
将后缀名改为bat后双击运行(其实写了那么多bat文件也应该有体会了,只要指定的路径正确就行,不一定非要放在caffe-windows根目录下)。正确运行的话会在根目录下产生一个mean.binaryproto,也就是我们所需要的均值文件。接着为了使用均值文件需要稍微修改下层的定义。所以打开examplesmnistlenet_train_test.prototxt,做如下修改:
到此为止,均值文件的预处理部分处理完毕,下面就可以进行测试了。
二、利用mnist测试集进行测试
这部分比较简单,因为之前生成的Caffe.exe就可以直接用来进行测试。同样地在caffe-windows目录下新建mnist_test.txt,并写入如下内容(其中的间断处都为一个空格)。
意思也显而易见,首先指定为测试模式,随后指定模型和训练出来的参数。
将后缀名改为bat后双击运行,结果如下所示:
左侧的内容依旧是GLOG的记录日志,右侧中的Batch需要和网络参数初始中的batch_size一起理解。每个Batch中包含了batch_size张测试图片,所以每个Batch的准确率是对这batch_size张测试图片整体而言的。而不是像我最初一样先入为主地以为准确率应该是对每张测试图片而言,故只有0和1两种情况。
这边个人也有个小问题,Batch之所以为0-49共50个是由caffe.cpp中一个叫做FLAGS_iterations的变量指定的,但是找来找去实在无法确定这个变量是否是由网络参数确定的,之后再好好看一下代码。
这个准确率不能说特别好,因为我有空也尝试过Tensorflow,Tensorflow官方文档中的一个多层卷积网络对mnist测试集的准确率为99.2%左右。不过到此为止我们已经完成了mnist测试集在caffe上的运行和测试。
三、利用自己的手写数字进行测试
主要参考了http://blog.csdn.net/zb1165048017/article/details/52217772这篇文章,不过还是有些细节需要更改。
(1)首先可以按照上面网址教程中的第六和第七步在examplesmnist目录下生成手写的一个28*28像素数字的bmp文件和一个标签文件label.txt。比如我手写的数字如下图所示:
这里需要注意的是上述教程中的matlab代码最后一句需要更改。例如我已经将matlab的工作目录设为caffe-windowsexamplesmnist,就可以直接输入(test1为我的手写数字文件名):
(2)之后就可以调用之前生成的classification.exe进行分类。同样的在caffe-windows目录下新建test_personaldig.txt并写入如下内容:
中间的三行其实是每个加一个空格后跟在examplesmnistlenet.prototxt的后面,这里为了显示地更加清楚而进行了换行。更改后缀为bat后就可以双击运行,会出现类似下面的内容:
可见分类结果正确。让我们再来测试一个下图写得一个比较飘逸的5。
分类结果还是正确的。
四、后记
到此为止我们已经完成了利用mnist测试集对生成的模型进行准确率测试,并成功对自己手写的数字进行了识别,总之效果还不差。然而至此教程甚至根本没有提及过卷积神经网络,可见caffe的确可以让一个完全不懂卷积神经网络原理的人通过不断手动调整参数完成学习,实现分类等目标,甚至还能取得非常不错的效果。就像程序员和数学的关系一样,知晓了卷积神经网络的详细原理对我们使用caffe只有好处没有坏处,并且要真正做到看懂caffe的每个模块必须了解卷积神经网络。博主自己也正在深入学习卷积神经网络,这里推荐一个非常好的入门资料CS231n Convolutional Neural Networks for Visual Recognition
http://cs231n.github.io/convolutional-networks/
上面网址中的教程对卷积神经网络的基础知识讲述得非常透彻清楚。但如果想继续了解其中的数学推导的话,建议再看下面这篇文章:
Notes on Convolutional Neural Networks, Jake Bouvrie