• 第五节课-神经网络2


    2017-08-15

    这节课个人感觉没有怎么听懂,大概主要讲了一下几个点:

    神经网络的历史、激活函数之间的优缺点对比、数据的预处理、权重的初始化注意事项、正则化、学习过程种的监督(学习率)、超参数的优化

    1.历史:

    从最早的二元分类器感知机,到后面的多层感知机,神将网络,再到后面的改个名字深度学习。2012Hinton的CNN在ImageNet获得第一名,深度学习又一次火了起来;

    2.激活函数:

    主要有 Sigmoid, tanh, ReLu, leak-ReLu, ELu

    各有各的优缺点,现在一般用ReLu比较好,不用Sigmoid因为他的题都消失问题,阻碍了梯度再网络中的传播,还有输出不是以0为中心,为什么不好我也不知道;

    tanh就是再sigmoid函数的基础上变化过来的,除了输出以0为中心,其他的缺点他也有;

    ReLu收敛速度快, f(x) = max(0, x) 但是也不输出不是以0为中心;

    3.数据预处理:

    这里对于图片而言,主要是抽取平均值;

    3.权重初始化:

    不能初始化为0,这样所有的神经元会产生相同的输出,使得不能发挥它们的各自的作用;要用其他的方法打破这种对称型;

    4.正则化:

    一般是L1正则化,L2正则化;

    5.学习率:

    主要体现再学习率太低,loss几乎不变,太高的话loss为nan

    6.没看懂再干啥;

  • 相关阅读:
    Day3-spark基本认识
    团队冲刺第九天
    团队冲刺第八天
    团队冲刺第七天
    团队冲刺第六天
    团队冲刺第五天
    团队冲刺第四天
    团队冲刺第三天
    团队冲刺第二天
    团队冲刺第一天
  • 原文地址:https://www.cnblogs.com/robin2ML/p/7365589.html
Copyright © 2020-2023  润新知