• 论文阅读 | Selective Kernel Networks


    论文阅读 | Selective Kernel Networks

    Selective Kernel Convolution

    本文提出了一种卷积神经网络系统中的动态选择机制,允许每个神经元基于输入信息的多尺度自适应地调整其感受野大小。为了使神经元能够自适应地调整它们的射频大小,作者提出了一种自动选择操作,在具有不同核大小的多个核之间进行“Slective Kernel”卷积。其中由三个算子组成:Split, Fuse, Select。如下图所示:

    Split

    Split 操作产生多条具有不同内核大小的路径,这些路径对应于不同感受野大小的神经元。以两条路径为例,对输入的特征图(X)分别做两个变换 $ ilde F $ 和 $ hat F $ ,得到$ ilde U $ 和 $ hat U $。其中每个变换依次为:grouped/depthwise convolutions, BatchNormalization, ReLU function;不同之处为卷积的卷积核大小不同,一个为 3 x 3 的卷积,另一个为 5 x 5 的卷积。

    Fuse

    首先通过 element-wise summation 融合来自多个分支的结果,得到(U)

    [U = ilde U + hat U ]

    (U)做全局平均池化,得到通道的统计信息:

    [s_c = mathcal{F}_{gp}(U_c)=frac{1}{H imes W} sum_{i=1}^H sum_{j=1}^W U_c(i,j) ]

    将得到的统计信息经过FC、BN、ReLU得到一个压缩的feature:

    [z = mathcal{F}_{fc}(s)=delta(mathcal{B}(Ws)) ]

    其中,(W in R^{ d imes C})(d=max(C/r,L))(r为缩减率),文中实验的设置为(L=32)

    Select

    计算来自各个路径的权重:

    [a_c=frac{e^{A_cz}}{e^{A_cz}+e^{B_cz}}, b_c=frac{e^{B_cz}}{e^{A_cz}+e^{B_cz}} ]

    其中,(A, B in R^{C imes d})(a)(b) 分别为 ( ilde U)(hat U) 的 soft attention vector;(A_c in R^{1 imes d})(A) 的第 (c) 行,(a_c)(a) 的第 (c) 个元素;(这里有点绕,(A)(B) 应该分别就是图中右边黄色和绿色部分)

    通过各种核上的关注权重求和获得最终的特征图 (V) :

    [V_c = a_c cdot ilde U + b_c cdot hat U, a_c + b_c = 1 ]

    Network Architecture

    在SK单元中,有三个重要的超参数决定了SK卷积的最终设置:

    • The number of paths M
    • The group number G
    • The reduction ratio r

    作者实验后的取值:([M,G,r]=[2,32,16])

    作者首先使用SK模块替换到了ResNeXt模型中,因为该模型中用到了group convolution,而且计算量也不大,实验证明,参数量大概提升了10%,计算量提高了5%。

    Summary

    通过在自然图像中放大目标对象和缩小背景来模拟刺激,以保持图像大小不变。结果发现,当目标物体越来越大时,大多数神经元会越来越多地从更大的核路径中收集信息。这些结果表明,所提出的sknet中的神经元具有自适应的感受野大小。

  • 相关阅读:
    用node.js解决编程题的输入问题
    css兼容篇
    关于Hogan的学习笔记
    javascript实现瀑布流
    代码管理工具之SVN简介
    原创•模板匹配实践之Opencv+Python识别PDB板图片
    sklearn 神经网络MLPclassifier参数详解
    (转)knn算法简单实例分享
    机器学习初识——KNN算法
    开发工具VScode实用插件推荐分享
  • 原文地址:https://www.cnblogs.com/anxifeng/p/13516319.html
Copyright © 2020-2023  润新知