转子http://blog.csdn.net/qianqing13579/article/details/71076261
前言
入职之后,逐渐转到深度学习方向。很早就打算写深度学习相关博客了,但是由于各种原因被搁置了。
这段时间刚好有空,就把以前的笔记整理总结了一下,温故而知新,以前有些不是特别清楚的概念,通过这次的复习豁然开朗了,也希望自己的分享能够帮助其他人更好地理解CNN。
目前的博客计划如下:
- LeNet论文翻译与解读
- AlexNet论文翻译与解读
- VGGNet,Inception,ResNet网络结构的分析
- Caffe中卷积运算的实现(CNN中最重要的一种运算)
- 如何提高深度学习的性能(结合自己做过的相关项目)
记录自己学习过程和心得的同时也作复习之用。
相关资料
论文&书籍
下面列出的论文都是我学习CNN过程中精读过的论文,也是我认为学习CNN必读的论文,论文的顺序基本上就是CNN结构演化的历史。
- LeNet:《Gradient-Based Learning Applied to Document Recognition》 CNN的开山之作,也是手写体识别经典论文。
- AlexNet:《 ImageNet Classification with Deep Convolutional Neural Networks 》 ILSVRC-2012 大赛冠军,促进CNN的扛鼎之作,AlexNet是CNN发展史上的一个历史性转折,不能不读。
- Inception V1和V3:《Going Deeper with Convolutions》,《Rethinking the Inception Architecture for Computer Vision》,2014年ImageNet大赛冠军,Inception结构的设计很巧妙
- VGGNet:《Very Deep Convolutional Networks for Large-Scale Image Recognition》,虽然不是那年ImageNet大赛的冠军(那年的冠军是GoogLeNet),但是VGGNet对后面的ResNet,Inception产生了重要的影响
- DeepID2+:《Deeply learned face representations are sparse, selective, and robust》为什么要推荐这篇论文呢?人脸识别领域,DeepID大名如雷贯耳,与DeepID,DeepID2不同的是,这篇论文并不是单纯讲人脸识别,论文深入分析了CNN的内部结构,试图从理论上解释CNN强大的特征提取能和分类识别能力,这是学者第一次试图去探索CNN的本质属性,看完这篇论文,相信对CNN会有更深入的了解。
-
ResNet:《Deep Residual Learning for Image Recognition》,直接将top5错误率降到了3.57%(GoogLeNet 是6.66%),超越了人眼,文中最大的亮点就是残差块结构的设计。
这里附上一张CNN结构演化历史的图,希望帮助大家更好的了解CNN的发展
还有一些资料,也非常值得一读
- 《On the Origin of Deep Learning》,最近才出来的一篇论文,三位作者都是CMU的,这篇论文对深度学习的发展历史做了一个综述,我阅读了与CNN相关的第5章:Convolutional Neural Networks and Vision Problems,其中提到的CNN目前遇到的挑战以及机遇让我对CNN的发展有了一个更加全面的认识。
-
《Deep Learning》 Yoshua Bengio,Ian Goodfellow,Aaron Courville写的一本书,光看作者就觉得这本书的质量应该很高,虽然我并没有读过,哈哈,值得庆幸的是这本书的中文版也出来了。
上面提到的论文和书籍都是可以在网上下载到的,我将这些资料上传到CSND上了,点击下载。
博客
下面的博客在我学习CNN的过程中给我提供了很多帮助,非常感谢作者的分享
- 深度卷积网络CNN与图像语义分割,关于学习CNN提出了一些指导意见,很有价值
- 神经网络浅讲:从神经元到深度学习,较好的阐述了神经网络的历史
- 反向传播神经网络极简入门,这篇文章就是我学习反向传播的资料,受益匪浅。
- Deep Learning(深度学习)学习笔记整理系列之(一)网友整理的深度学习的笔记,值得一读。