• 神经网络建模的一些感悟;


    2016/10/6
    1: 用自定义的weighted loss来看, 10000个batch仍然没有收敛;
    2:仍然使用sigmoid cross entropy loss, 7 epoches 左右仍然收敛,对于7w数据;
    3:改动loss, 避免nan loss的出现;
     
    2016/12/6
    1: 用lstm做classfication, 思路是将问题和答案各自转换成一个1000维向量,softmax作为1000个主题的概率,然后算点积和,最大化点积和的情况是两个属于同一个主题的概率最大;failed.
    2: 用weighted lstm,思想是不用lstm的最终向量,而是用每个词的output向量,根据单词的weight来做加权平均作为最终的向量; failed. 
         结果证明同时训练单词的weight和用weighted average lstm中间向量,结果还不如直接用lstm的最终output;
         NAN loss极有可能是分母为0所导致的;
     
    2017/1/12 
    1: 用normalize的方法将word embedding正规化,
         一般而言,tf提供了两种主流的方法,一种是L2的方法,就是将每个维度的数平方加起来等于1, 一种是local normalize的方法,分别搜索tf.nn.l2_normalize 和tf.nn.local_response_normalization。
         另外,tf提供了很多的算矩的方法,可以根据矩(均值和方差)来做normalize,见tf.nn.moments
     
    2: 对于lstm output用cnn的思考
         2.1:lstm output的话,对于一个句子,output的向量维度是[batch size, sentence length, rnn dimension, 2]
         (最后的一个2是因为采用的是bi-directional rnn,所以有两个值),
          所用的convolution方法是在sentence length的维度上取三个单词,在rnn dimension上取所有的长度,然后取256个channels,
         这样输出的向量就是[batch size, sentence length, 1, 256]. 然后relu处理(对所有的点取max(x, 0)),最后在sentence length的维度上maxpool;
         2.2 : 这里主要有几个问题
              1: sentence length取得是150, 但是其中包含了大量的填充,可能真实句子就只有15个词汇,剩下135全是填充词汇;
              2: rnn dimension上的不同维度代表不同的相对意义,但是线性的结合起来是否不合理?
     
    3: 因为实际的训练数据可能存在一定的bad case;因此每次训练一个batch,抛出top 5%最高的的loss;
     
    2017/1/23
     经过两天的训练,发现lstm_cnn模型最后收敛到了0.693147,这个数值代表所有的预测概率值都是0.5,有时候真的不是模型复杂最后结果好的;总结一句就是数据简单就上简单模型,数据复杂就试试增大模型体量,增加层数和参数数量;
     
     
  • 相关阅读:
    Brute Force
    2014 Asia AnShan Regional Contest --- HDU 5073 Galaxy
    dp --- 2014 Asia AnShan Regional Contest --- HDU 5074 Hatsune Miku
    2014 Asia AnShan Regional Contest --- HDU 5078 Osu!
    搜索 + 剪枝 --- POJ 1101 : Sticks
    Brute Force & STL --- UVA 146 ID Codes
    Brute Force --- UVA 10167: Birthday Cake
    UVA题目分类
    对全概率公式和贝叶斯公式的理解
    APPLE ID随意转区到US或者HK.不需要信用卡
  • 原文地址:https://www.cnblogs.com/LarryGates/p/6561470.html
Copyright © 2020-2023  润新知