• 论文笔记(2)-Dropout-Regularization of Neural Networks using DropConnect


    这篇paper使用DropConnect来规则化神经网络。dropconnect和dropout的区别如下图所示。dropout是随机吧隐含层的输出清空,而dropconnect是input unit到hidden unit输入权值以1-p的概率清0

    dropout的关键公式,其中m是size为d的列向量格式如下[0 0 1 0 0 0 1 1 ]T .这样的话就把隐层到输出层以一定的概率清空,概率一般为0.5

    dropconnect的关键公式,其中M和上面的m一个含义。这个就是说从输入层到隐层就要有一定的概率来清空。

    dropconnect的算法流程如下,和普通的算法不同的地方就是随机sample一个M mask,活动函数里面需要乘这个M

    inference的过程如下图,对DropConnect进行推理时,采用的是对每个输入(每个隐含层节点连接有多个输入)的权重进行高斯分布的采样。该高斯分布的均值与方差当然与前面的概率值p有关,满足的高斯分布为:

     

  • 相关阅读:
    红黑树实现
    Java环境变量的配置及意义
    Java 内存分配全面浅析
    吸血鬼数字
    nat模式、路由模式,网桥模式
    WebService 的创建,部署和使用
    摩尔定律
    计算机组成
    世界是数字的
    面试
  • 原文地址:https://www.cnblogs.com/alexanderkun/p/3535276.html
Copyright © 2020-2023  润新知