• 常用卷积神经网络精炼总结(复习用)


    本文总结了目前依然常用常见的卷积神经网络的特点,仅作为复习使用,具体细节建议阅读原论文

    ①Resnet

    1. 拟合残差,网络退化或者消失的主要原因是多个非线性层无法构建恒等映射,解决方法之一就是引入残差。让模型内部至少有恒等映射的能力。
    2. resent可以看作是路径的集合,类似集成模型,从输入到输出存在许多不同长度的路径。(让模型自身结构选择更加灵活
    3. 引入有效路径,加强前后层信息融合;且有效路径都是短路径,不是让梯度流通整个网络,而是在深层引入传输梯度的短路径

    ②Densenet
    一句话:跳跃连接的极致,将所有层的状态全部保存到集体知识中,加强特征的传递。
    1. 密集连接,减轻梯度消失
    2. 每层的维度减少,减少参数量,类似正则化,减少过拟合的风险
    3. 加强feature map的传递,更高效利用feature

    ③Inception系列
    一句话:密集的块结构来近似最优的稀疏结构
    V1:

    1. 多个小卷积核代替大卷积核,参数少;同时获取多种感受野

    2. 1*1卷积降维,跨通道信息融合;避免表示瓶颈,最大池化前进行升维
    3. 辅助softmax,将有用的梯度注入模型低层(对抗梯度消失)


    V2:
    Batch normliazation


    V3:

    1. 避免表示瓶颈,对应pool,特征图尺寸应该从输入到输出缓慢减小

    2. 空间聚合可以在低维进行,3*3之前的降维
    3. (核心)高维特征更容易局部处理,使用稀疏表示,对应串行不对称卷积(中高层特征图适用)7*7 -> 1*7,7*1,减少计算量
    4. 平衡深度和宽度
    tricks:
    Label smoothing , 通过权重调节,改变真实标签分布,达到正则化效果,阻止最大的Logit过于自信,增强泛化能力。

    ④Xception

    1. 基于inception的假设,特征图的跨通道相关性与空间相关性已充分解耦合,不需要联合映射。
    2. 极限的inception,把空间卷积与通道卷积分离,参数量和计算量大大减小
    计算量:

    ⑤SEnet

    一句话:通道注意力机制,显示地建模特征通道之间的相互依赖关系,选择性的强调部分特征,抑制其他特征
    1. Squeeze, 把每个通道信息压缩生成通道描述符,使用gap。
    2. Excitation, 对通道信息建模生成权重
    3. 加权输出新的feature
    存在一个bottleneck

    ⑥cbam

    同时进行通道注意力机制以及空间注意力机制,采用maxpooling与averpooling一起做gap
    空间注意力机制,即在一个像素点的位置所有通道内的点进行gap。


    ⑦MoblieNet系列, 记好论文题目
    V1: efficient cnn for moble

    1. 使用深度可分离卷积,参数和计算量少
    2. Relu6 (低精度下鲁棒性高)
    Dw -> bn -> relu6 -> 1*1 conv -> bn -> relu
    引入一个减少参数量的超参数:
    所有层的 通道数乘以 α 参数,模型大小近似下降到原来的 α 2 倍,计算量下降到原来的 α 2 倍


    V2: inverted residuals and liner bottlenecks

    1. 引入残差连接
    2. 引入倒置瓶颈结构(与resnet相反),因为维度过低导致特征提取不充分,故先升维后降维。
    升维1*1 -> bn -> relu6 -> dw -> bn -> relu6 -> 降维 1*1
    3. 替换relu6为线性连接 (relu在低维的时候容易破坏特征)


    v3: serching for mb3
    1. 使用mnasnet作为基础的模块(nas搜索出来的资源受限的网络结构)
    2. 引入senet,通道注意力机制,对某些特征重点关注
    3. 使用h-swish(reLu实现),替换swish的复杂操作(适配更多硬件),使用hard形式逼近swish的函数曲线。
    swish函数,nas搜索得到

    只在后半网络使用, 因网络加深,使用非线性激活函数的计算量越小
    网络开销主要在卷积计算上,轻量级网络主要是1*1卷积,1*1卷积不需要Img2col,更快。


    ⑧shuffleNet

    a. 输入通道与输出通道相同的时候,mac会在flops相同的情况下减少,特征图以及卷积核参数量是mac
    (输入特征图存储hwc1,输出特征图存储hwc2,以及权重存储1*1*c1*c2)

    推导关键是令c2这一步,化简之后可以根据a+b>=2*sqrt(ab)得到,c1=c2时最小
    b. 过量使用组卷积会增加mac,分组数要选好
    c. 碎片化网络会降低并行度,影响速度(inception, 多路结构)
    d. 注意元素级操作,add操作等

    ⑨Efficient-net

    1. 优化目标,基础结构不变例如k,s

    2. 复合扩张方法, 根据算力改变缩放系数即可

    3. 求解方式:

     

    缩放的核心在于2的次方,次方是1的时候代表算力是B0的2倍,后续例如算力提升10倍,2的3.3次方等于10,那么缩放系数就是3
    但是缺点是推理速度不快:相同的flops,element-wise能处理更多的数据量,通过处理更多的数据量来贴合给你精度,但是大量数据读取受限于gpu带宽,导致推理速度慢。如果利用相同的数据量训练,逐元素卷积在精度上比普通卷积低。


    ⑩Dilated conv

    1. 在避免使用down sampling 时增大感受野, 实现方式是在普通卷积核中插入0,atros为多少就插入几个0
    2. 感受野计算方式:(r*s)+ (k-s) , 带洞卷积感受野计算就先算出模拟多大卷积核(k+d*(k+1)),然后带入公式即可
    3. 缺点,使用单一尺度的dilated conv不能同时处理不同大小物体的关系,故转向多级的形式,如aspp
    附:多尺度语义分割的形式:①image pyramid ② unet类 ③ASPP ④SPP(不同尺度池化,然后拉成一维,拼接起来,固定维度)
    带来棋盘效应,解决方法:去掉最开始的池化;渐进式的空洞卷积;去掉残差

    ⑩①DCN

    出发点:图像中目标的尺寸形状变化不一
    一句话:使网络在提取特征的时候把注意力聚焦在训练目标上,覆盖不同形状尺寸的目标,动态调整感受野
    1. 可形变卷积
    两层结构,上层通过卷积学习到offset(卷积核个数2*k*k,对应每个位置的x,y偏置),下层根据offset先调整位置,再使用卷积提取特征
    2. 可形变ROI POOLING
    两层结构,上层提取ROI通过FC学习到offset(FC输出节点2*bin个数), 下层根据offset先调整位置,再使用Roi pooling

    ⑩②SKNET

    split -> fuse -> select
    1.首先使用不同的卷积核对原图进行卷积
    下面就是split attention的步骤:
    2.逐元素相加不同特征图,gap->fc->softmax,学习每个通道占的比重(与senet一样,先gap再压缩维度,在扩展到原维度)
    3.比重乘回原通道,各个组直接相加。


    ⑩③ResNest

    可以认为是senet、sknet、resnext的集大成。
    1. 先resnext类似,分成大组(减小计算量)
    2. 把每个大组,借鉴sknet,分成几个分支(可选核分支,模型灵活性,多感受野)
    3. 再用sknet的合并,split attendion, 先得到每个分支的通道权重(senet),分别相乘后再相加
    4. 最后 concat 每个大组
    使用的Mixup数据增强方法: 把两张图片按权重线性相加,一张图片中出现两张图片的目标

    ⑩④CSPnet

    提出原因:发现大量重复的梯度信息被用来更新不同密集层的权重。 这将导致不同的密集层重复学习相同梯度信息
    cspnet使得网络结构能够实现更加丰富的梯度组合信息,同时减小计算量。
    通过将基础的特征图划分成两部分,(同一个特征图送入两个不同的卷积,两个卷积输出的通道数减半)然后通过提出的跨阶段层次结果将他们融合。主要概念是截断梯度流,截断后加一个过渡层,使梯度流通过不同的网络路径传播,防止不同的层学习重复的梯度信息

  • 相关阅读:
    [APIO2017] 商旅
    [SDOI2017] 新生舞会
    FileUtils类介绍
    经典算法面试题目-设计算法移除字符串中重复的字符(1.3)
    Web---演示Servlet的相关类、表单多参数接收、文件上传简单入门
    Java新手入门必须掌握的30个基本概念
    你需要知道的10位Java开发牛人
    Web---演示Servlet的相关类、下载技术、线程问题、自定义404页面
    经典算法面试题目-翻转一个C风格的字符串(1.2)
    Web---创建Servlet的3种方式、简单的用户注册功能
  • 原文地址:https://www.cnblogs.com/ywheunji/p/14135776.html
Copyright © 2020-2023  润新知