• 网络中的超参数


    1.  学习率

    学习率是指在优化算法中更新网络权重的幅度大小。学习率可以是恒定的、逐渐降低的、基于动量的或者是自适应的,采用哪种学习率取决于所选择优化算法的类型,如SGD、Adam、Adagrad、AdaDelta或RMSProp等算法。

    2.  迭代次数

    迭代次数是指整个训练集输入到神经网络进行训练的次数。当测试错误率和训练错误率相差较小时,可认为当前的迭代次数是合适的,否则需继续增大迭代次数,或调整网络结构。

    3.  批次大小

    在卷积神经网络的学习过程中,小批次会表现得更好,选取范围一般位于区间[16,128]内。还需要注意的是,CNN网络对批次大小的调整十分敏感。

    4.  激活函数

    激活函数具有非线性,理论上可以使模型拟合出任何函数。通常情况下,ReLU函数在CNN网络中的效果较好。当然,可以根据实际任务,选择其他类型的激活函数,如Sigmoid和Tanh等等。

    5.  隐含层的数目和单元数

    增加隐含层数目以加深网络深度,会在一定程度上改善网络性能,但是当测试错误率不再下降时,就需要寻求其他的改良方法。增加隐含层数目也带来一个问题,即提高了训练该网络的计算成本。

    当网络的单元数设置过少时,可能会导致欠拟合,而单元数设置过多时,只要采取合适的正则化方式,就不会产生不良影响。

    6.  权重初始化

    在网络中,通常会使用小随机数来初始化各网络层的权重,以防止产生不活跃的神经元,但是设置过小的随机数可能生成零梯度网络。一般来说,均匀分布方法效果较好。

    7.  Dropout方法

    作为一种常用的正则化方式,加入Dropout层可以减弱深层神经网络的过拟合效应。该方法会按照所设定的概率参数,在每次训练中随机地不激活一定比例的神经单元。该参数的默认值为0.5。

  • 相关阅读:
    大数据究竟能干什么,值得我们好好思考
    大数据入门的四个必备常识
    大数据入门的四个必备常识
    2016年大数据的8个预测
    2016年大数据的8个预测
    大数据和云计算究竟有什么关系?
    大数据和云计算究竟有什么关系?
    linux内核模块依赖图
    Python2.7安装教程
    设置导航栏的相关属性
  • 原文地址:https://www.cnblogs.com/AntonioSu/p/11958529.html
Copyright © 2020-2023  润新知