• 从神经网络到深度学习


     

    监督学习:标注数据
    半监督学习:标注数据和未标注数据
    无监督学习:未标注学习
    监督学习的性能最可靠,用于企业

     

     

     

    通常层间神经元不相通

     

    损失函数:每次都找下山最快的方向(梯度下降法)依赖于网络初始值

    神经网络的缺点:
    局部最优:下山不一定到最低点
    梯度弥散:如:1 0.5 0.25 0.125(接近0)梯度为0时网络更新不动了。层数过多,梯度越来越小
    参数量呈现指数级增加
    尤其后两种,会造成层数过多无法训练

    欠拟合:模型不够复杂,把模型的参数量增加或训练时间更长一些。
    Dropout:每次更新网络时,随机不更新一部分神经元,防止把答案记住
    正则化:对模型复杂度进行约束,不要太复杂
    数据增广:把一个数据变为多个,一张图变为多个。增加训练数据量

    深度学习
    为什么要深度?层数越多,表达能力越强
    卷积是对特征的提取

    全连接数据量太大,不长远
    感受野:一个神经元所关注的区域,

    Max Pooling :只取该区域的最大值作为区域的值
    Mean Pooling :平均池化,对该区域取平均值作为区域的值
    这两个比较常用

     

     

     

     

     

    反卷积变大

     

    随机让一部分神经元坏死,产生误差,由于每次都随机,那么最后所有神经元都能被更新

    Flatten :展平
    Dense:全连接

    越到高层越一致(稀疏)

    深度学习框架
    Keras 适合新手,Caffe 工业性能高
    Pytorch  科研,灵活

    Static :运行流程定义好的,一般是一个输入进去,一个输出出来。 不知道中间的运算过程。但是稳定,适合做产品
    Dynamic :运行中每一步都可随时暂停,都是动态的。出现问题每步都可以调试,适合科研

     

  • 相关阅读:
    android.mk 文件中变量
    【转】An Intuitive Guide To Exponential Functions & e
    卷积相关
    opencv 调试时不显示图像
    Luhn 算法-- 信用卡号码的校验
    perl 脚本实现简单搜索修改文件并生成diff文件
    【转】gcc: multiple definition of [转]
    【转】undefined reference问题总结
    【转】pthread_cond_t怎么使用
    linux编程使用记录
  • 原文地址:https://www.cnblogs.com/tingtin/p/11900276.html
Copyright © 2020-2023  润新知