• How Do Vision Transformers Work?[2202.06709] 论文研读系列(2) 个人笔记


    [论文简析]How Do Vision Transformers Work?[2202.06709]

    • 论文题目:How Do Vision Transformers Work?

    • 论文地址:http://arxiv.org/abs/2202.06709

    • 代码:https://github.com/xxxnell/how-do-vits-work

    • ICLR2022 - Reviewer Kvf7:

      • 这个文章整理的太难懂了
      • 很多trick很有用,但是作者并没有完全说明
    • 行文线索 Emporocal Observations:

      • MSAs(多头自注意力机制 / 一般取代CNN)能够提高CNN的预测性能,VIT里面能够很好的去预测 well-calibrated uncertainty P(模型输出的预测概率值)
      • 鲁棒性,对于data corruptions、image occlusions、adversarial attacks、特别是对high-frequency noisy 高频噪声
      • 靠近最后几层的MSAs能够显著的提高我们的性能

    Q1:Inductive Biases 归纳偏置

    • 归纳偏置可以理解为,从现实生活中观察到的现象中归纳出一定的规则(heuristics),然后对模型做一定的约束,从而可以起到“模型选择”的作用,即从假设空间中选择出更符合现实规则的模型。其实,贝叶斯学习中的“先验(Prior)”这个叫法,可能比“归纳偏置”更直观一些。

      • CNN的inductive bias应该是locality和spatial invariance,即空间相近的grid elements有联系而远的没有,和空间不变性(kernel权重共享)
      • RNN的inductive bias是sequentiality和time invariance,即序列顺序上的timesteps有联系,和时间变换的不变性(rnn权重共享)
    • MSA本质上是一个generalized spatial smoothing广义空间平滑,由几个value在进行求和,权重由Q和K来给定

      • MSA公式
      • 相对比于CNN和RNN而言,MSA的归纳偏置是weak Inductive Biases,由于是全局soft-attention,因此会有长距离的关系long-range dependencies
      • 因此适当的约束Appropriate constraints / 强归纳偏置可能会对模型具有帮助:swin、twins(做局部attention)

    Conclusion 1

    • 因此Conclusion 1:归纳偏置越强,预测/特征学出来的就越强。
      • RX:ResNeXt,R:ResNet,Mixes是最自由的
      • 疑问1:会不会VIT这些模型在CIFAR-100小数据集上overfit过拟合才会导致性能差?- 实际上不是如此,可以看出随着训练集大小和训练时间长短变化,NLLtrain和Error仍然是相关,并没有出现过拟合现象。

    Conclusion 2

    • 疑问2:能不能衡量convexity? - 统计很多个海塞矩阵的最大特征值,再用来做一个平谱来反映loss function的形状特性Hessian Max Eigenvalue Spectrum(是这个作者的另一篇论文)

    • 归纳偏置的作用:强的能够压制负的特征值negative eigenvalues

      • VIT 6%表示少量数据集下,负特征值非常明显,随着样本数量增加,负特征值得到抑制
    • loss平滑是由MSA导致的,但是这并不一定是一个坏事:regarding generalization & performance具有更好的表达能力,泛化可塑,随着样本数量的增加,可以去压制负特征值,让loss function变得没有那么平坦,让凸一些,与VIT适用于大数据量样本的观察是契合的。

      • ResNet更加陡峭,在大数据量样本下很容易陷入局部最优
      • 夹角越大说明离初始模型越来越不一样,Transformer过度的十分平滑,越强的归纳偏置会导致优化的更加曲折,可以理解为执行力
    • 以上就是说明,需要在归纳偏置和数据量之间寻找到一个平衡:

      • patch_size ≈ CNN中的kernel大小,大小越大,偏执归纳越强,右图可以看出归纳偏置越强对负特征值的抑制越强(本质就是如何作用于loss function)
      • 在ImageNet上,就是由于CNN其归纳偏置太强,导致没有MSA那么灵活,没有那么强的表达能力 / 泛化能力表达复杂的数据集。
      • local MSA / swin 滑窗机制产生了很多负特征值,但是它很大程度上减少了特征值的度量。有图看出swim相比其他的模型更加集中于靠近0的位置,说明swim的loss更加的平滑,甚至当训练过后也是。
      • PIT相对于VIT而言是一个multi-stage多级的,不断的把模型shape缩小,深度增加,这种结构同样抑制了负的海塞矩阵特征值。
      • 两种常用的设计如何影响特征值平谱。
    • 除此之外:

      • MSA中head的数量 = loss landspace convexity,head越多归纳偏置越强,因为每个head只跟自己交流。
      • NEP衡量负样本比例,APE衡量loss陡峭程度,随着head增加,都是下降的趋势,有图表示head越大,离0越近表示越来越平坦,面积越小表示越来越凸。
      • 此图就是说明head的深度Embed dim

    Conclusion 3

    • loss landscape smoothing methods aisds 更平滑更凸
      • 首先用GAPGlobal Average Pooling而不用CLS
      • SAMSharpness-Aware Minimization改善VIT的性能(另外两篇论文,一种梯度下降优化算法)

    总结

    • 归纳偏置 <=> loss landscape convexity / smoothness & flatness <=> 海塞矩阵最大值norm
    • MSA为什么让性能更好?
      • 平坦 / loss不凸 / 数据量 / 平滑

    另一个观察

    • Data Specificity (not long-range dependency) 数据特异性(非全局关联)
      • 实验:用NLP思想,将global MSA替换2D conv MSA (1d局部,2d局部相邻head做attention)
      • 8X8kernel等效为全局attention,局部更加有利
      • Data Specificity(attention)替代long-range dependency,用数据特异性来替代全局attention

    Q2:MSAs和Convs差异

    • Convs:data-agnostic and channel-specific 数据无关和通道特定,不管数据怎么样,权重都是固定好的,按照同样的权重去提取特征,特征放到特定的位置/channel
    • MSA:data-specific and channel-agnostic 数据特定和通道无关,attention计算是和数据本身有关的,都是进来相乘做attention,进来顺序就不重要了。
    • 可以看出这两者是相互的。

    Conclusion 1

    • MSA是低通滤波器(本质上就是把所有空间上的值求个平均),Conv是高通滤波器
      • 作者对两者输入不同频率得到输出后的可视化,可以看到,Convs对高频损失不大,低波段下降明显,而MSA相反。同样右图,对加入不同频率噪声的影响,Convs对高频噪声反应大,MAS对低频噪声反应大。
      • 不过对于swim而言,它同样可以保持一定的高频信号。
      • 看到可以看出,灰色部分的高层时可以减少高频信号的响应,而在白色部分都是增加高频信号的响应。低层的时候与高层相反。

    Conclusion 2

    • MSAs聚合特征,而Convs相反让特征更加多样。
    • 白色卷积/MLP多层感知机部分提高方差,蓝色部分下采样降低方差。
    • 有意思的是在swim中,表现得更像是一个Convs的结构,方差逐渐的增加,甚至在做下采样的时候方差还在增加,直到最后的时候方差才降下来,不知道如何解释。
    • 总的来说这意味着就是,我们或许可以将两者的性质结合起来设计一个更好的网络。

    Q3:结合MSA+Conv

    • image-20220318173932830

    • 可以看出来,在Resnet/PIT/Swin中是多层结构,(小块)层之内相关性明显,层之间相关性很弱 / PIT也是一样。而在VIT里面,由于本身就没有Multi-stage的概念,所以一大块都是相关的。

    • 这个图使用:Minibatch Centered Kernel Alignment(CKA)计算出来的。

    • image-20220318174506060

    • 从已经训练好的Res和Swin里面移除网络单元进行测试性能

    • 对于ResNet而言,移除早期的模块比后期的模块更重要,同一层中移除前面的比移除后面的更致命。

    • 对于Swin而言,在stage(以蓝色下采样为划分)中,开头移除MLP会大幅影响准确性,结尾移除MSA会大幅影响准确性。

    • 基于以上观察,把Convs逐渐替换成Attention有三个准则:

      • 1、从全局最后开始,每隔一层把Conv块替换成MSA块
      • 2、如果替换的MSA并不能增加我们模型的性能,那么我们去找到上一个stage,在该stage的最后把Conv替换成MSA(同时不能增加性能的MSA还原成Conv)
      • 3、在相对比较靠后的stage里,我们的MSA需要有更多的head以及更大的hidden dimensions
      • 1、Alternately replace Conv blocks with MSA blocks from the end.
      • 2、lf the added MSA block does not improve predictive performance, replace a Conv block located at the end of an earlier stage with an MSA block .
      • 3、Use more heads and higher hidden dimensions for MSA blocks in late stages.
    • 可以看到替换后的结果:精度有提升,鲁棒性有提升,eigenvalue频谱可以看出AlterNet更加平滑(特征值更加接近0)。鲁棒性计算另一篇论文。

    • 不同数据集针对的修改网络不一样,ImageNet相比于CIFAR上多了两个MSA层,这意味着我们有更弱的归纳偏置,更加强的表达性能,更多的数据才能支撑起更多的MSA。

    • 我们可以看到,相比于swin/ twins这种纯MSA的网络而言,在大数据集下性能肯定是不如的,因为他们的归纳偏置更加的弱。

    一个发现

    • data augmention数据增强
      • 1、Data augmentation can harm uncertainty calibration 数据增强会损害不确定性校准
      • 在没有进行数据增强前,模型对自己的预测比较自信,在进行数据增强后,模型对自己的预测反而不太自信了。
      • 2、Data augmentation reduces the magnitude of Hessian eigenvalues数据增强降低了 Hessian 特征值的大小
      • 可以看出加了数据增强后的特征值更加趋向于0了,即表明loss变得更加平滑了,负的特征值变多了表示loss函数不凸了。

    总结

    • 附录B:

      • MSA is Spatial smoothing: Appendix B
        Taking all these observations together, we provide an explanation of how MSAs work by addressing themselves as a general form of spatial smoothing or an implementation of data-complemented BNN. Spatial smoothing improves performance in the following ways:
        1、Spatial smoothing helps in NN optimization by flattening the loss landscapes. Even a small 2×2 box blurfilter significantly improves performance.
        2、Spatial smoothing is a low-pass filter. CNNs are vulnerable to high-frequency noises, but spatial smoothing improves the robustness against suchnoises by significantly reducing these noises.
        3、Spatial smoothing is effective when applied atthe end of a stage because it aggregates all transformed feature maps. This paper shows that these mechanisms also apply to MSAs.
  • 相关阅读:
    fibnacci数列递归实现
    求最大公约数伪代码
    第五周学习总结
    第四周学习总结
    我的黑客偶像
    BASE64编码
    第三周学习总结
    第二周学习总结
    Python gui
    SSH实践
  • 原文地址:https://www.cnblogs.com/ymjun/p/16023171.html
Copyright © 2020-2023  润新知