为什么要探索发展史(实例分析)?
我们首先来看看一些卷积神经网络的实例分析,为什么要看这些实例分析呢?
上周我们讲了基本构建,比如卷积层、池化层以及全连接层这些组件。
事实上,过去几年计算机视觉研究中的大量研究都集中在如何把这些基本构件组合起来,形成有效的卷积神经网络。
最直观的方式之一就是去看一些案例,就像很多人通过看别人的代码来学习编程一样,通过研究别人构建有效组件的案例是个不错的办法。实际上在计算机视觉任务中表现良好的神经网络框架往往也适用于其它任务,也许你的任务也不例外。
也就是说,如果有人已经训练或者计算出擅长识别猫、狗、人的神经网络或者神经网络框架,而你的计算机视觉识别任务是构建一个自动驾驶汽车,你完全可以借鉴别人的神经网络框架来解决自己的问题。
最后,学完这几节课,你应该可以读一些计算机视觉方面的研究论文了,我希望这也是你学习本课程的收获。当然,读论文并不是必须的,但是我希望当你发现你可以读懂一些计算机视觉方面的研究论文或研讨会内容时会有一种满足感。言归正传,我们进入主题。
这是后面几节课的提纲,首先我们来看几个经典的网络。
发展史
LeNet-5网络,我记得应该是1980年代的,经常被引用的AlexNet,还有VGG网络。这些都是非常有效的神经网络范例,当中的一些思路为现代计算机视觉技术的发展奠定了基础。论文中的这些想法可能对你大有裨益,对你的工作也可能有所帮助。然后是ResNet,又称残差网络。
记住吶,AlexNet --> VGG --> ResNet
神经网络正在不断加深,对此你可能有所了解。ResNet神经网络训练了一个深达152层的神经网络,并且在如何有效训练方面,总结出了一些有趣的想法和窍门。
课程最后,我们还会讲一个Inception神经网络的实例分析(这个是google的哦,要认真记的)。
了解了这些神经网络,我相信你会对如何构建有效的卷积神经网络更有感觉。
即使计算机视觉并不是你的主要方向,但我相信你会从ResNet和Inception网络这样的实例中找到一些不错的想法。
这里面有很多思路都是多学科融合的产物。总之,即便你不打算构建计算机视觉应用程序,试着从中发现一些有趣的思路,对你的工作也会有所帮助。