• 【Deeplearning】(转)深度学习知识网络


    转自深度学习知识框架,小象牛逼!


    01.jpg

    图片来自小象学院公开课,下面直接解释几条线

    神经网络

    线性回归 (+ 非线性激励) → 神经网络

    • 有线性映射关系的数据,找到映射关系,非常简单,只能描述简单的映射关系
    • 大部分关系是非线性的,所以改进方法就是加一个非线性激励,某种程度是一个 NORMALIZE,但是是非线性的,对参数有更强的描述能力
    • +非线性激励,描述稍微复杂的映射关系,形成神经网络
    • 神经网络输入是 1 维信息,普通网络之间进行的是代数运算,然后经过非线性激励,形成新的神经网络

    RNN

    神经网络 (+时域递归) → RNN

    • 神经网络处理一维信息,然而一维信息很可能是有前后的时间联系的,如人的语音,前面说的话与后面是有联系的,RNN 学习前后关系
    • 相当于某一刻的输出同时也作为下一刻的输入,所以这一刻的输入不仅是这一刻的输入+上一刻输出的信息

    LSTM

    RNN (+记忆GATE) → LSTM

    • RNN 只考虑前一刻信息,Tn 时刻只考虑 Tn-1 的,那么 Tn-2,就是 Tn-2 → Tn-1 → Tn 逐层衰减,信息也会越来越弱
    • 如果很久之前的记忆很重要,要把它记下来,就相当于有一个记忆方程,那么就可以用 LSTM,实现长记忆短记忆
    • Gate 来分析哪一部分存储,哪一部分进行传递
    • 应用: 语句生成 → 自动翻译智能对话

    CNN

    神经网络 (+卷积核) → CNN

    • 基本的代数运算用卷积核来代替。一维到二维甚至是三维的转化,相当于一个空间上的扩展
    • 应用: 图片分类 → 目标分类(人脸识别/物品识别/场景识别/文字识别)、目标检测(安防/自动驾驶)

    更先进的CNN

    • 深度,宽度,递归的变化
      增加深度(网络层数),E.g.OverFeat-accurate,VGG
      增加宽度(filter数),E.g.zf-big,OverFeat-accurate
      递归的变化,可以跳过下一层,传到后面几层
    • 结构与性能
    • 特定问题的具体结构
      比如说人脸识别,我们知道人脸有大体结构,用 CNN 来做识别时,可以让不同位置的像素不共享参数,眼睛有处理眼睛部分的卷积核,鼻子有处理鼻子部分的卷积核,它们之间不共享参数,这样的话参数会很多,但这样训练的结果可能会更好一些,专门对眼睛/鼻子进行训练

    LSTM + CNN

    LSTM 卷积化(LSTM + CNN)

    • 应用: 产生理解图片的语言 → 图片描述/标注 → 看图说话,时域的图片 → 视频分类 → 视频搜索
    • NLP 方向比较成熟的只有语音识别,语义挖掘方面还是目前的热点

    增强学习

    外部反馈 → 增强学习

    • 模仿人类学习的模型
    • CNN 能理解,把它放在游戏中,做决策,给出反馈,让它学会决策的能力
    • 应用: 围棋,德州扑克,自动游戏,路径规划

    GAN

    生成网络 + 判别网络 → 对抗网络

    • 生成网络学会怎么生成数据,如输入有表情图片,学习怎么输出没有表情的图片,实际生成质量不是很好
    • 判别网络判断生成网络生成的图片是不是真的
    • 两者结合生成网络生成的图片越来越逼真,判别网络鉴别图片的能力也越来越强
    • 作用: 生成数据,相当于无监督学习
  • 相关阅读:
    小内存 linux 主机部署 mysql
    IIS enable HTTP PUT and DELETE
    使用Topshelf部署.net core windows服务 Demo
    Windows Template Studio 创建 .net core wpf应用
    vue笔记——vue生命周期
    (转)idea如何快速查看接口的实现类
    vue项目设置启动自动打开浏览器
    批量添加题目功能(正则表达式的使用案例)
    markdown的diff效果
    SVN提交时取消某个文件的提交
  • 原文地址:https://www.cnblogs.com/hithongming/p/11194103.html
Copyright © 2020-2023  润新知