• 动手学深度学习 | 经典卷积神经网络LeNet | 21


    LeNet

    上面是LeNet的结构示意图。

    模型定义

    net = nn.Sequential(
    	# 这里输出是28*28,所以要padding=2,填充为32*32
        nn.Conv2d(1, 6, kernel_size=5, padding=2), nn.Sigmoid(),
        nn.AvgPool2d(kernel_size=2, stride=2),
        nn.Conv2d(6, 16, kernel_size=5), nn.Sigmoid(),
        nn.AvgPool2d(kernel_size=2, stride=2),
        nn.Flatten(),
        nn.Linear(16 * 5 * 5, 120), nn.Sigmoid(),
        nn.Linear(120, 84), nn.Sigmoid(),
        nn.Linear(84, 10)) # 最后输出10个概率
    

    代码

    使用LeNet来在Fashion-Mnist数据集上进行训练。

    QA

    1. 池化和卷积是不是更适合图像这类数据,而对于时序性数据(做分类)是不是不适用这类数据?

    后面会将一个使用conv-1d来进行文本分类的案例。

    至于要不要使用池化,其实没有确定答案,可以试,因为使用了池化也没有带来什么坏处。

    1. LeNet的第二个卷积层通道数增加到了16,这意味信息被放大了吗?

    图片信息肯定是要压缩的,一般来说,就是卷积图片的高宽减半,然后通道增加一倍。(实际信息没有被放大,因为深度学习模型本质就是在压缩信息)

    可以看到以下卷积神经网的模型变化,长宽是在不断的缩小的,通道数在不断增多,一个通道可以认为是一个模式,也就可以认为被压缩的图片,被加入新的识别模式当中

    卷积:高宽是一直在减少的,通道是一直在增加的,现在的卷积神经网络,高宽会变成1,通道会变成上千。

    1. 池化层一般用max还是avg,用max的话会不会损失很多信息?

    用max的意思是说只关心最大的那个信号量,也就是关系那个pattern是否出现了,如果出现了它的值就会很大,那么就把这个最大值拎出来就行了。(多通道输出,对应多个核)

    max不见得比avg损失信息多,max其实比avg训练起来更好。

    1. 课程网站有个练习是将sigmoid替换为relu,是个sigmoid全替换为relu后模型基本不收敛,有什么原因吗?

    不收敛的原因是因为学习率过大。

    在这里插入图片描述

    然后课程中给定sigmoid给到0.9的学习率其实给大了..

    1. 图像识别出来的特征,颜色可以打印出来吗?或者怎么去寻找网络到底学习了什么?

    这个是可以打印出来的,有一个网站在做CNN 的可视化展示。

    CNN Explainer,可以学习,直观感受CNN是如何工作的。

    1. 目前的卷积神经网络或其他深度学习是不是都需要较多的训练数据,如果训练数据体量很小是否不适合深度学习?是否有无监督/或小训练集的深度学习?

    其实现在深度学习不需要很多数据集,我们后面会讲一个微调。

    现在的深度学习,因为我们有很多在大量的数据集上训练好的模型,我们可以做到在真实的训练不需要训练样本,或者很少的训练样本就做的很好了。

    我们这里讲的是从零开始学习,但是真实的应用不会真的从零开始的。

  • 相关阅读:
    C# 反射数据库数据过程中值类型存在DBNull的处理方法 == System.DBNull.Value
    Git 未能顺利结束 (退出码 128)解决办法 git常用命令流程图
    IDEA之The directory xxxxx is under Git, but is not registered in the Settings.
    git push提交成功后如何撤销回退 我是手动修改再提交一次 。。或者IDEA有代码修改历史记录功能 进行回退
    IDEA,发现Project文件目录不见了,只剩External Libraries的原因
    分布式事务 seata
    idea设置类,方法模板 阿里检测
    随笔
    初学一点点空间分解和有理标准型
    Vue2+Cesium1.9+热力图开发笔记
  • 原文地址:https://www.cnblogs.com/Rowry/p/15338161.html
Copyright © 2020-2023  润新知