• CNN 笔记


      

    1. 卷积后的图像的大小为    (w+2p-f)*3 / s    W为图像的宽,p为padding的大小, f为卷积核大小, 3 为图像的通道数, s为步长

    2. 卷积层和池化层的区别?

    卷积层是窗口滑动卷积,  池化层是取最大值

    3. sigmod 函数和 relu函数的区别 ??

    sigmoid函数,

    sigmoid函数在在两段接近饱和区是,变换的很缓慢,导数趋近于0,在反向传播时,容易出现梯度消失的现象,造成信息的丢失。同时因为sigmoid函数是指数运算,计算量较大,导致反向传播求误差梯度是,计算量相对于relu会大很多,而采用relu激活函数,计算量会小很多。同样还有一个好处,relu函数会使得一部分神经元的输出为0,这样会使网络稀疏,减少了参数的依赖关系,缓解了过拟合的发生。

    4. 特征提取  尽量提取和需要识别的物体的相关的特征,不然容易过拟合

    • sobel算子

    5. 什么时候使用Relu函数,

    每次迭代后都需要使用Relu函数;

    6.  如果是10个 32*32*1 的特征图,  需要的参数为  10*5*5*3 + 10 = 760 个参数;

    7.  caffe 参数含义

     epoch   batch  batch_size 含义

    所以图片训练完叫一次epoch, 由于图片太多,无法将他们一次性训练完,所以要分很多个batch,  一个batch有batch_size张图片

    lr_mult: 学习率的系数,最终的学习率是这个数乘以solver.prototxt配置文件中的base_lr。如果有两个lr_mult, 则第一个表示权值的学习率,第二个表示偏置项的学习率。一般偏置项的学习率是权值学习率的两倍。

    inner_product_layer :全连接层

    weight_filter    权值初始化方法     xavier   使用xavier方法初始化

    bias_filler  偏置项初始化

    accuracy层:就是计算准确度的层
    accuracy层是通过对比预测的结果与输入的label,通过统计预测正确的数量与总共要预测的数量的比值得到的。 
    accuracy层需要两个输入源,一个是经过网络预测的数值,另一个是最开始输入的label至,分别对应了bottom[0]和bottom[1]. 

    SoftmaxWithLoss层  :  计算归一化概率和loss

    8.  向量化

    没有使用向量化的逻辑回归

    使用了向量化的逻辑回归

    9   梯度下降

    10  逻辑回归中的代价函数

    其中 是未知的,  y(i)  是已知的,  我们的目的就是求得的表达式, 即求得wT 和b

  • 相关阅读:
    hdu 4015找规律
    hdu4473
    hdu 4016搜索
    hdu4465精度控制
    hdu 2965组合数学题
    hdu 4022map和list等数据结构的应用
    hdu4464超级大水题
    在ASP.NET中实现Url Rewriting
    DotText源码阅读(1)调试
    DotText源码阅读(2)数据库表结构
  • 原文地址:https://www.cnblogs.com/luoyinjie/p/9680679.html
Copyright © 2020-2023  润新知