• 详解梯度爆炸和梯度消失


    那么为什么会出现梯度消失的现象呢?因为通常神经网络所用的激活函数是sigmoid函数,这个函数有个特点,就是能将负无穷到正无穷的数映射到0和1之间,并且对这个函数求导的结果是f(x)=f(x)(1f(x))。因此两个0到1之间的数相乘,得到的结果就会变得很小了。神经网络的反向传播是逐层对函数偏导相乘,因此当神经网络层数非常深的时候,最后一层产生的偏差就因为乘了很多的小于1的数而越来越小,最终就会变为0,从而导致层数比较浅的权重没有更新,这就是梯度消失

    那么什么是梯度爆炸呢?梯度爆炸就是由于初始化权值过大,前面层会比后面层变化的更快,就会导致权值越来越大,梯度爆炸的现象就发生了。

    在深层网络或循环神经网络中,误差梯度可在更新中累积,变成非常大的梯度,然后导致网络权重的大幅更新,并因此使网络变得不稳定。在极端情况下,权重的值变得非常大,以至于溢出,导致 NaN 值。

    网络层之间的梯度(值大于 1.0)重复相乘导致的指数级增长会产生梯度爆炸。

    如何确定是否出现梯度爆炸?

    训练过程中出现梯度爆炸会伴随一些细微的信号,如:

    • 模型无法从训练数据中获得更新(如低损失)。

    • 模型不稳定,导致更新过程中的损失出现显著变化。

    • 训练过程中,模型损失变成 NaN。

    如何修复梯度爆炸问题?

     

    有很多方法可以解决梯度爆炸问题,本节列举了一些最佳实验方法。

    1. 重新设计网络模型

    在深度神经网络中,梯度爆炸可以通过重新设计层数更少的网络来解决。

    使用更小的批尺寸对网络训练也有好处。另外也许是学习率的原因,学习率过大导致的问题,减小学习率。

    在循环神经网络中,训练过程中在更少的先前时间步上进行更新(沿时间的截断反向传播,truncated Backpropagation through time)可以缓解梯度爆炸问题。

    2. 使用 ReLU 激活函数

    在深度多层感知机神经网络中,梯度爆炸的发生可能是因为激活函数,如之前很流行的 Sigmoid 和 Tanh 函数。

    使用 ReLU 激活函数可以减少梯度爆炸。采用 ReLU 激活函数是最适合隐藏层的新实践。

    3. 使用长短期记忆网络

     在循环神经网络中,梯度爆炸的发生可能是因为某种网络的训练本身就存在不稳定性,如随时间的反向传播本质上将循环网络转换成深度多层感知机神经网络。

    使用长短期记忆(LSTM)单元和相关的门类型神经元结构可以减少梯度爆炸问题。

    采用 LSTM 单元是适合循环神经网络的序列预测的最新最好实践。

    4. 使用梯度截断(Gradient Clipping)

     在非常深且批尺寸较大的多层感知机网络和输入序列较长的 LSTM 中,仍然有可能出现梯度爆炸。如果梯度爆炸仍然出现,你可以在训练过程中检查和限制梯度的大小。这就是梯度截断。

    5. 使用权重正则化(Weight Regularization)

    如果梯度爆炸仍然存在,可以尝试另一种方法,即检查网络权重的大小,并惩罚产生较大权重值的损失函数。该过程被称为权重正则化,通常使用的是 L1 惩罚项(权重绝对值)或 L2 惩罚项(权重平方)。

  • 相关阅读:
    适配器模式
    控制器的显示注入
    自定义过滤器
    配置路由
    JavaScript判断浏览器类型及版本(新增IE11)
    路径别名
    判断是否是IE浏览器和是否是IE11
    页面视图中的按钮操作指向
    安卓开发环境搭建与环境变量设置
    html中iframe子页面与父页面元素的访问以及js变量的访问
  • 原文地址:https://www.cnblogs.com/DLlearning/p/8177273.html
Copyright © 2020-2023  润新知