• sublinear技巧


    什么是torch的sublinear技巧

    陈天奇的Training Deep Nets with Sublinear Memory Cost告诉我们,训练deep nets的时候,memory的最大的开销来自于储存用于backward的activation。这个很好理解,前向的时候,每一层的activation都要保存下来,用于计算backward。

    那么这个时候,一个简单的解决方案就是,我们隔着sqrt(n)层存一次activation,然后在需要的时候,我们再进行一次计算。这样的话,memory就大致省下来sqrt(n)倍。并且显存使用越多,省下来的越多。

    reference

    1. https://arxiv.org/abs/1604.06174 Training Deep Nets with Sublinear Memory Cost.
    2. https://www.zhihu.com/question/274635237/answer/755102181
  • 相关阅读:
    数学考试
    奇♂妙拆分
    11.25
    11.21
    11.20
    11.19
    11.18
    11.15
    11.14作业
    11.14
  • 原文地址:https://www.cnblogs.com/JohnRan/p/15219247.html
Copyright © 2020-2023  润新知