• 机器学习知识点整理(三)


    十一、深度学习基础

    1.为什么必须在神经网络中引入非线性?

     2.ReLU在零点不可导,那么在反向传播中怎么处理?

    ReLU虽然在零点不可导,但是我们在做反向传播的计算时,对ReLu这个函数的导数分情况讨论,即ReLU在零点时人为地给它赋予一个导数,比如0或者1。例如在下面的ReLU的反向传播函数实现中,将ReLU在零点位置的导数设置为0。

     

     3.ReLu有哪些优缺点

    优点:
      1). 使用 ReLU 的 SGD 算法的收敛速度比 sigmoid 和 tanh 快;
      2.) 在 x > 0 上,不会出现梯度饱和,梯度消失的问题。
      3.) 计算复杂度低,不需要进行指数运算,只要一个阈值(0)就可以得到激活值。
    缺点:
      1.) ReLU 的输出不是 0 均值的,它将小于 0 的值都置为 0; 使得所有参数的更新方
    向都相同,导致了 ZigZag 现象。
      2.) Dead ReLU Problem (ReLU 神经元坏死现象):某些神经元可能永远不被激活,
    导致相应参数永远不会被更新(在负数部分,梯度为 0)
      3.) ReLU 不会对数据做幅度压缩,所以数据的幅度会随着模型层数的增加不断扩
    张。
    注: ZigZag 现象指的是,模型中所有的参数在一次梯度更新的过程中,更新方向相
    同,即同为正或者同为负。这就导致了梯度更新图像呈现 Z 字形,进而导致梯度更新
    效率比较低。

    4.Batch Normalization解决了什么问题

     5.

     

     6.

     

     

     

     

    7.

     

     

    8.

     

    9.

     

    10.

     

    11.

     

     

     

     十二、CV

    1.

     2.

     3.

     4.

     5.

     

     6.

     

     

     

     7.

     8.

     9.

     

  • 相关阅读:
    java-mybaits-00503-延迟加载
    java-mybaits-00502-案例-映射分析-一对一、一对多、多对多
    java-mybaits-00501-案例-映射分析-订单商品数据模型
    java-mybaits-00402-Mapper-动态sql-if、where、foreach、sql片段
    数据结构与算法实验题7.1 M 商人的求救
    HDOJ 1075
    HDOJ 1856
    HDOJ 3790
    HDOJ 1869
    HDOJ 1870
  • 原文地址:https://www.cnblogs.com/irvingluo/p/14062240.html
Copyright © 2020-2023  润新知