• 机器学习中的范数规则化之(一)L0、L1与L2范数


    L1正则会产生稀疏解,让很多无用的特征的系数变为0,只留下一些有用的特征

    L2正则不让某些特征的系数变为0,即不产生稀疏解,只让他们接近于0。即L2正则倾向于让权重w变小。见第二篇的推导。

    所以,样本量比较少,但是特征特别多的时候,可以用L1正则,把一部分不显著的特征系数变成0;

    而样本量多,特征偏少的时候,可以使用L2正则,保留住所有的特征,只是让系数变小,接近于0.

     https://www.cnblogs.com/yxwkf/p/5268577.html

    本文是《Neural networks and deep learning》概览 中第三章的一部分。讲机器学习/深度学习算法中经常使用的正则化方法。(本文会不断补充)



    正则化方法:防止过拟合,提高泛化能力

    在训练数据不够多时,或者overtraining时,经常会导致overfitting(过拟合)。其直观的表现例如以下图所看到的。随着训练过程的进行,模型复杂度添加,在training data上的error渐渐减小。可是在验证集上的error却反而渐渐增大——由于训练出来的网络过拟合了训练集,对训练集外的数据却不work。

    为了防止overfitting。能够用的方法有非常多,下文就将以此展开。有一个概念须要先说明,在机器学习算法中,我们经常将原始数据集分为三部分:training data、validation data。testing data。这个validation data是什么?它事实上就是用来避免过拟合的。在训练过程中。我们通经常使用它来确定一些超參数(比方依据validation data上的accuracy来确定early stopping的epoch大小、依据validation data确定learning rate等等)。那为啥不直接在testing data上做这些呢?由于假设在testing data做这些,那么随着训练的进行,我们的网络实际上就是在一点一点地overfitting我们的testing data,导致最后得到的testing accuracy没有不论什么參考意义。因此,training data的作用是计算梯度更新权重,validation data如上所述。testing data则给出一个accuracy以推断网络的好坏。

    避免过拟合的方法有非常多:early stopping、数据集扩增(Data augmentation)、正则化(Regularization)包含L1、L2(L2 regularization也叫weight decay),dropout。



    L2 regularization(权重衰减)

    L2正则化就是在代价函数后面再加上一个正则化项:

    C0代表原始的代价函数,后面那一项就是L2正则化项。它是这样来的:全部參数w的平方的和,除以训练集的样本大小n。

    λ就是正则项系数,权衡正则项与C0项的比重。另外另一个系数1/2,1/2经常会看到,主要是为了后面求导的结果方便,后面那一项求导会产生一个2。与1/2相乘刚好凑整。

    L2正则化项是怎么避免overfitting的呢?我们推导一下看看,先求导:

    能够发现L2正则化项对b的更新没有影响,可是对于w的更新有影响:

    在不使用L2正则化时。求导结果中w前系数为1,如今w前面系数为 1−ηλ/n ,由于η、λ、n都是正的。所以 1−ηλ/n小于1,它的效果是减小w。这也就是权重衰减(weight decay)的由来。

    当然考虑到后面的导数项,w终于的值可能增大也可能减小。

    另外。须要提一下,对于基于mini-batch的随机梯度下降,w和b更新的公式跟上面给出的有点不同:

    对照上面w的更新公式。能够发现后面那一项变了,变成全部导数加和,乘以η再除以m,m是一个mini-batch中样本的个数。

    到眼下为止,我们仅仅是解释了L2正则化项有让w“变小”的效果,可是还没解释为什么w“变小”能够防止overfitting?一个所谓“显而易见”的解释就是:更小的权值w,从某种意义上说,表示网络的复杂度更低,对数据的拟合刚刚好(这个法则也叫做奥卡姆剃刀),而在实际应用中,也验证了这一点。L2正则化的效果往往好于未经正则化的效果。当然,对于非常多人(包含我)来说,这个解释似乎不那么显而易见,所以这里加入一个略微数学一点的解释(引自知乎):

    过拟合的时候,拟合函数的系数往往非常大,为什么?例如以下图所看到的,过拟合。就是拟合函数须要顾忌每个点。终于形成的拟合函数波动非常大。在某些非常小的区间里,函数值的变化非常剧烈。

    这就意味着函数在某些小区间里的导数值(绝对值)非常大,由于自变量值可大可小,所以仅仅有系数足够大,才干保证导数值非常大。

    而正则化是通过约束參数的范数使其不要太大,所以能够在一定程度上降低过拟合情况。



    L1 regularization

    在原始的代价函数后面加上一个L1正则化项。即全部权重w的绝对值的和。乘以λ/n(这里不像L2正则化项那样,须要再乘以1/2。详细原因上面已经说过。)

    相同先计算导数:

    上式中sgn(w)表示w的符号。那么权重w的更新规则为:

    比原始的更新规则多出了η * λ * sgn(w)/n这一项。

    当w为正时,更新后的w变小。

    当w为负时。更新后的w变大——因此它的效果就是让w往0靠。使网络中的权重尽可能为0,也就相当于减小了网络复杂度,防止过拟合。

    另外,上面没有提到一个问题,当w为0时怎么办?当w等于0时,|W|是不可导的。所以我们仅仅能依照原始的未经正则化的方法去更新w,这就相当于去掉η*λ*sgn(w)/n这一项,所以我们能够规定sgn(0)=0,这样就把w=0的情况也统一进来了。

    (在编程的时候,令sgn(0)=0,sgn(w>0)=1,sgn(w<0)=-1)



    Dropout

    L1、L2正则化是通过改动代价函数来实现的,而Dropout则是通过改动神经网络本身来实现的,它是在训练网络时用的一种技巧(trike)。它的流程例如以下:

    假设我们要训练上图这个网络,在训练開始时,我们随机地“删除”一半的隐层单元,视它们为不存在,得到例如以下的网络:

    保持输入输出层不变,依照BP算法更新上图神经网络中的权值(虚线连接的单元不更新,由于它们被“暂时删除”了)。

    以上就是一次迭代的过程,在第二次迭代中,也用相同的方法,仅仅只是这次删除的那一半隐层单元,跟上一次删除掉的肯定是不一样的。由于我们每一次迭代都是“随机”地去删掉一半。

    第三次、第四次……都是这样,直至训练结束。

    以上就是Dropout,它为什么有助于防止过拟合呢?能够简单地这样解释。运用了dropout的训练过程,相当于训练了非常多个仅仅有半数隐层单元的神经网络(后面简称为“半数网络”),每个这种半数网络,都能够给出一个分类结果,这些结果有的是正确的,有的是错误的。

    随着训练的进行,大部分半数网络都能够给出正确的分类结果。那么少数的错误分类结果就不会对终于结果造成大的影响。

    更加深入地理解。能够看看Hinton和Alex两牛2012的论文《ImageNet Classification with Deep Convolutional Neural Networks》



    数据集扩增(data augmentation)

    “有时候不是由于算法好赢了。而是由于拥有很多其它的数据才赢了。”

    不记得原话是哪位大牛说的了,hinton?从中可见训练数据有多么重要,特别是在深度学习方法中。很多其它的训练数据。意味着能够用更深的网络,训练出更好的模型。

    既然这样,收集很多其它的数据不即可啦?假设能够收集很多其它能够用的数据,当然好。可是非常多时候,收集很多其它的数据意味着须要耗费很多其它的人力物力。有弄过人工标注的同学就知道。效率特别低,简直是粗活。

    所以。能够在原始数据上做些改动,得到很多其它的数据,以图片数据集举例,能够做各种变换,如:

    • 将原始图片旋转一个小角度

    • 加入随机噪声

    • 一些有弹性的畸变(elastic distortions)。论文《Best practices for convolutional neural networks applied to visual document analysis》对MNIST做了各种变种扩增。

    • 截取(crop)原始图片的一部分。

      比方DeepID中,从一副人脸图中,截取出了100个小patch作为训练数据,极大地添加了数据集。

      感兴趣的能够看《Deep learning face representation from predicting 10,000 classes》.

      很多其它数据意味着什么?

    用50000个MNIST的样本训练SVM得出的accuracy94.48%,用5000个MNIST的样本训练NN得出accuracy为93.24%,所以很多其它的数据能够使算法表现得更好。

    在机器学习中,算法本身并不能决出胜负。不能武断地说这些算法谁优谁劣,由于数据对算法性能的影响非常大。



    转载请注明出处:http://blog.csdn.net/u012162613/article/details/44261657

    机器学习中的范数规则化之(一)L0、L1与L2范数 :http://blog.csdn.net/zouxy09/article/details/24971995/

    http://www.mamicode.com/info-detail-517504.html

  • 相关阅读:
    比较相同一个表中两个字段值
    thinkphp在原字段上面进行加减操作
    前端页面中语音提示
    LeetCode 47——全排列 II
    剑指 Offer——最小的 K 个数
    LeetCode 46——全排列
    LeetCode 103——二叉树的锯齿形层次遍历
    剑指 Offer——数组中的逆序对
    二维数组和指针
    Non-local Neural Networks
  • 原文地址:https://www.cnblogs.com/zhangbojiangfeng/p/6185718.html
Copyright © 2020-2023  润新知