• facebook 摘要生成阅读笔记(二) Abstractive Sentence Summarization with Attentive Recurrent Neural Networks


    整体流程与第一篇差不多,只是在encoder和decoder加入了RNN

    Encoder:

    1.

    ai=xi+li  

    ai=词向量+词在序列中的位置信息(相当于一个权重,[M, 1])

    流程:

    先是CNN获取位置信息,然后再加上词向量,然后再通过LSTM

    2.

    常见的求注意力权重的方法

      a. ht-1:RNN输出

     流程:

    通过LSTM进行编码,然后再求attention

    3.

      注意力累加


    Decoder:

    流程:

    经过LSTM进行解码,然后再乘以个[cell_output_size, vocab_size]矩阵(这里是考虑依赖词库),如果不依赖词库则乘以[cell_output_size, sequence_size](依赖输入长度)

      本文介绍了两种Decoder,均用到了LSTM,最后输出的是K个最大词的概率,求概率求的是对整个词库分配概率,如果生成词时依赖词库,输出长度[V,1],V表示词库大小;依赖输入句子,那么就是对整个输入句子的每个词分配概率,输出[M,1],M表示词的长度

    1.

    2.

  • 相关阅读:
    diff
    tar
    ln
    setfacl
    组件建站
    容器组件
    组件需求
    页面结构
    字体
    轮博图加元素动效的动效ransition
  • 原文地址:https://www.cnblogs.com/callyblog/p/9662434.html
Copyright © 2020-2023  润新知