• 深入理解卷积层,全连接层的作用意义


    原文地址:https://blog.csdn.net/m0_37407756/article/details/80904580?depth_1-utm_source=distribute.pc_relevant.none-task&utm_source=distribute.pc_relevant.none-task

    部分内容是转载的知乎的,如有侵权,请告知,删除便是,但由于是总结的,所以不一一列出原作者是who。

    再次感谢,也希望给其他小白受益。

    首先说明:可以不用全连接层的。

    理解1:

    卷积取的是局部特征,全连接就是把以前的局部特征重新通过权值矩阵组装成完整的图。

    因为用到了所有的局部特征,所以叫全连接。

    理解2:

    从卷积网络谈起,卷积网络在形式上有一点点像咱们正在召开的“人民代表大会制度”。卷积核的个数相当于候选人,图像中不同的特征会激活不同的“候选人”(卷积核)。

    池化层(仅指最大池化)起着类似于“合票”的作用,不同特征在对不同的“候选人”有着各自的喜好。

    全连接相当于是“代表普选”。所有被各个区域选出的代表,对最终结果进行“投票”,全连接保证了receiptive field 是整个图像,既图像中各个部分(所谓所有代表),都有对最终结果影响的权利。

    理解3:

    假设你是一只小蚂蚁,你的任务是找小面包。你的视野还比较窄,只能看到很小一片区域。当你找到一片小面包之后,你不知道你找到的是不是全部的小面包,所以你们全部的蚂蚁开了个会,把所有的小面包都拿出来分享了。全连接层就是这个蚂蚁大会~

    理解4:

    例如经过卷积,relu后得到3x3x5的输出。

    那它是怎么样把3x3x5的输出,转换成1x4096的形式?

    很简单,可以理解为在中间做了一个卷积。

    从上图我们可以看出,我们用一个3x3x5的filter 去卷积激活函数的输出,得到的结果就是一个fully connected layer 的一个神经元的输出,这个输出就是一个值。因为我们有4096个神经元。我们实际就是用一个3x3x5x4096的卷积层去卷积激活函数的输出。

    以VGG-16再举个例子吧,

    对224x224x3的输入,最后一层卷积可得输出为7x7x512,如后层是一层含4096个神经元的FC,则可用卷积核为7x7x512x4096的全局卷积来实现这一全连接运算过程。

    它把特征representation整合到一起,输出为一个值。


    这样做,有一个什么好处?就是大大减少特征位置对分类带来的影响。

    举个简单的例子:


    从上图我们可以看出,猫在不同的位置,输出的feature值相同,但是位置不同。

    对于电脑来说,特征值相同,但是特征值位置不同,那分类结果也可能不一样。

    这时全连接层filter的作用就相当于

    喵在哪我不管,我只要喵,于是我让filter去把这个喵找到,

    实际就是把feature map 整合成一个值,这个值大,有喵,这个值小,那就可能没喵

    和这个喵在哪关系不大了,鲁棒性有大大增强。

    因为空间结构特性被忽略了,所以全连接层不适合用于在方位上找Pattern的任务,比如segmentation。
    全连接层中一层的一个神经元就可以看成一个多项式,

    我们用许多神经元去拟合数据分布

    但是只用一层fully connected layer 有时候没法解决非线性问题,

    而如果有两层或以上fully connected layer就可以很好地解决非线性问题了

    我们都知道,全连接层之前的作用是提取特征

    全理解层的作用是分类

    我们现在的任务是去区别一图片是不是猫


    假设这个神经网络模型已经训练完了

    全连接层已经知道


    当我们得到以上特征,我就可以判断这个东东是猫了。

    因为全连接层的作用主要就是实现分类(Classification)

    从下图,我们可以看出

    红色的神经元表示这个特征被找到了(激活了)

    同一层的其他神经元,要么猫的特征不明显,要么没找到

    当我们把这些找到的特征组合在一起,发现最符合要求的是猫

    ok,我认为这是猫了

    当我们把这些找到的特征组合在一起,发现最符合要求的是猫

    ok,我认为这是猫了


    猫头有这么些个特征,于是我们下一步的任务

    就是把猫头的这么些子特征找到,比如眼睛啊,耳朵啊


    道理和区别猫一样

    当我们找到这些特征,神经元就被激活了(上图红色圆圈)

    这细节特征又是怎么来的?

    就是从前面的卷积层,下采样层来的

    全连接层参数特多(可占整个网络参数80%左右)

    那么全连接层对模型影响参数就是三个:

    1,全接解层的总层数(长度)
    2,单个全连接层的神经元数(宽度)
    3,激活函数
    首先我们要明白激活函数的作用是:

    增加模型的非线性表达能力

    ————————————————
    版权声明:本文为CSDN博主「向阳+」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
    原文链接:https://blog.csdn.net/m0_37407756/article/details/80904580

  • 相关阅读:
    20165103 第四周查漏补缺
    20165103 2017-2018-2 《Java程序设计》第3周学习总结
    20165103 2017-2018-2 《Java程序设计》第2周学习总结
    20165103 2017-2018-2 《Java程序设计》第1周学习总结
    MySQL事务一致性理解
    mysql的事务四个特性以及 事务的四个隔离级别
    序列化和反序列化的简单理解
    内存溢出和内存泄漏的区别,产生原因以及解决方案
    oracle入门学习之oracle数据库结构
    Java微服务(Spring-boot+MyBatis+Maven)入门教程
  • 原文地址:https://www.cnblogs.com/lzhu/p/12390628.html
Copyright © 2020-2023  润新知