• Spiking Deep Residual Network


    郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布!

    IEEE transactions on neural networks and learning systems, (2021)

    Abstract

      脉冲神经网络(SNN)因其生物学合理性而受到广泛关注。SNN理论上至少具有与传统人工神经网络(ANN)相同的计算能力。它们具有实现能源效率的潜力,同时保持与深度神经网络(DNN)相当的性能。然而,训练一个非常深的SNN仍然是一个很大的挑战。在本文中,我们提出了一种有效的方法来构建深度残差网络(ResNet)的脉冲版本。ResNet被认为是一种最先进的卷积神经网络(CNN)。我们采用将经过训练的ResNet转换为脉冲神经网络的想法,称为Spiking ResNet (S-ResNet)。我们提出了一种快捷转换模型来适当地缩放连续值激活以匹配SNN中的发放率,并提出一种补偿机制来减少离散化造成的误差。实验结果表明,与最先进的SNN方法相比,所提出的Spiking ResNet在CIFAR-10、CIFAR-100和ImageNet 2012上实现了最佳性能。我们的工作是第一次构建更深的SNN超过40,在大规模数据集上具有与人工神经网络相当的性能。

    1 Introduction

    2 Related Work

    3 Building Spiking ResNet

    3.1 Spiking ResNet: An Overview

    3.2 Conversion Model of Residual Network

    3.3 Compensation of Propagation Error

    4 Experiment

    4.1 Experiment on Shortcut Model

    4.2 Experiment on Error Compensation

    4.3 Comparison with Other Deep SNNs

    4.4 Analysis of Energy Consumption

      SNN利用新兴的神经形态硬件实现革命性能源效率的潜力是其优于传统计算平台的优势之一。我们估计ResNet和S-ResNet的功耗,假设它们在其高级硬件上运行。对于ResNet,我们使用Intel Stratix 10 TX [48]的FPGA进行估计。英特尔Stratix 10 TX采用14纳米技术制造,于2018年发布。它被认为是迄今为止现成的FPGA中最强大、最节能的平台之一。它的功率效率高达80 GFLOPS/Watt,即它的运行成本为每FLOP 12.5pJ。对于S-ResNet,我们使用ROLLS [4]的神经形态芯片进行估计。它是在2015年使用180nm CMOS工艺制造的。正如[49]中报道的,ROLLS每个SOP消耗77fJ (突触操作[2])。

      采用ImageNet数据集来估计从数据集中对单个图像进行分类所需的能量。我们首先确定任务所需的操作数(ResNet的FLOP和SResNet的SOP),然后将其与平台的功效相乘以获得最终结果。操作数分别为:1.82 GFLOP、3.67 GFLOP和4.12 GFLOP用于ResNet-16、ResNet-34和ResNet-50。S-ResNet-16、S-ResNet-34和S-ResNet-50分别为33.13 GSOP、65.28 GSOP和78.29 GSOP。参考每个平台的能效,ResNet的功耗是S-ResNet在所有深度上的功耗的9倍以上。这一结果向我们展示了基于SNN的神经形态系统的广阔前景,因为使用神经形态硬件实现的SNN的估计功耗在一定程度上优于使用顶级节能FPGA平台之一实现的ANN。请注意,FPGA Intel Stratix 10 TX采用14 nm技术制造,而ROLLS仅采用180 nm技术,是14 nm技术的六代APART。

    5 Conclusion

  • 相关阅读:
    var、let、const之间的区别
    es5和es6的区别
    [2020CCPC威海G] Caesar Cipher
    [CF1437E] Make It Increasing
    [CF1437C] Chef Monocarp
    [CF1436D] Bandit in a City
    [CF1418D] Trash Problem
    [CF1419E] Decryption
    [CF1420C2] Pokémon Army (hard version)
    [CF1424M] Ancient Language
  • 原文地址:https://www.cnblogs.com/lucifer1997/p/16017792.html
Copyright © 2020-2023  润新知