• The Multilinear Structure of ReLU Networks


    两种非常常见的非线性单元:rectified linear units (ReLUs) 和 leaky ReLUs

    我们选取binary hinge loss进行分类

    对于多分类,我们可以定义multiclass hinge loss

    定义Ω为网络的参数空间, L(ω)为loss。

    由于我们选了ReLU非线性单元作为loss, 那么L(ω)分片线性的。对于参数空间,我们可以将其进行一个划分,

    分成有限个open cells Ωu边界N,则损失函数L(ω)在cell的内部光滑的,在边界上是不可微的。

    下面我们将loss限制在某个cell  Ωu上单独考虑,并且loss拥有multilinear form. 由于multilinear form是调和的,由strong maximum principle知,极值点必定在边界N. 换句话说,ReLU 神经网络 with hinge loss L(ω)不存在可微的局部极值点的

    目前为止,我们可以知道局部极值有两种情况,

    Type I (Flat). 局部极值在cell中,loss为常值。

    Type II (Sharp). 局部极值在边界N上。

    Main Result 1.   Type II局部极值点L(ω)>0.

    也就是说,如果存在极值0,那么Type II极值点都是sub-optimal的。

    若我们考虑更一般的情况:fully connected networks with leaky ReLU nonlinearities. 那么我们有以下结果,

    Main Result 2.  Type I局部极值点L(ω)=0. Type II局部极值点L(ω)>0.

    在存在极值0的情况下,flat 局部极小值都是optimal的,sharp 局部极小值都是sub-optimal的。若不存在极值0,所有的局部极值点都是sharp的。

    未完待续。。。

  • 相关阅读:
    我正在使用的 Gnome 扩展列表(不定期更新)
    PHP中 <<< A ··· A 是什么意思
    Java 中 this 的作用
    Java 类成员变量中 public, private, protected, default 权限区别
    虫师github
    在线学习的网站
    软件测试博客
    乙醇公开课视频
    教你如何写框架------元素管理篇
    自动化测试与持续集成方案--接口测试
  • 原文地址:https://www.cnblogs.com/skykill/p/9338233.html
Copyright © 2020-2023  润新知