• 深度学习笔记11-循环神经网络(RNN)和长短时记忆(LSTM)----非常经典


    1.RNN的典型应用

    (1)机器翻译,序列到序列(自然语言处理,NLP)

    (2)看图说话,就是描述图片的内容。

    2.RNN的应用背景

    RNN与CNN最大的不同就是引入了记忆的概念,就是输出依赖输入和记忆。

    3.RNN的结构

    注意:St公式中的U和W表示权重矩阵,Ot公式中的V也是权重矩阵。

    RNN结构补充说明:

    4.双向RNN

    注意:,分别表示从左往右的结果,和从右往左的结果,然后这两个结果做拼接。

    5.RNN与BPTT算法

    由于s2是关于W的函数,所以s3对W求偏导必须往前追溯(复合函数求导)

    6.LSTM应用背景

    7. LSTM的结构理解

    (1)ct-1为输入,ct为输出

    (2)几个关键门与操作

    <1>忘记门

    <2>细胞状态更新准备

    上图中,it是一个[0,1]之间的概率P,Ct表示Xt时刻所获取的信息(可以形象的理解为六年级一年学习的知识)

    Ct可以理解为当年学习的所有的知识,it表示把当年学习的所有知识Ct进行过滤的概率向量,实现将Ct中的新知识添加到以前的记忆中(即对六年级的知识有选择的添加到记忆中)。

    <3>更新细胞状态

    上图中的Ct公式参数说明:

    ft表示旧信息的通过率,Ct-1表示旧信息的所有内容,it新增信息的筛选器,Ct表示新增的所有信息。

    <4>获取输出

    8.LSTM的几种变体

  • 相关阅读:
    SQL server多表联合查询
    Linux at命令
    git用法总结详细
    vue插槽
    vue组件通信
    vue高阶函数
    vue过滤器
    vue侦听器watch
    Vue 计算属性 computed
    Spring事务失效的场景
  • 原文地址:https://www.cnblogs.com/luckyplj/p/12564888.html
Copyright © 2020-2023  润新知