• TF版本的Word2Vec和余弦相似度的计算


    前几天一个同学在看一段代码,内容是使用gensim包提供的Word2Vec方法训练得到词向量,里面有几个变量code、count、index、point看不懂,就向我求助,我大概给他讲了下code是哈夫曼编码,count应该是这个词在训练语料中出现的计数,point应该是在建树的过程中 路径的节点等等,这个算法我13、14年的时候就看过,所以他的问题没把我难住。可是自己现在的工作内容和以前喜欢的NLP相关不大,为了给他讲解一下算法同时也练一下手,就打算用TensorFlow实现一个简化版的w2v,代码在这里,实现的也算比较清晰。里面需要用到计算词向量的相似度,我的方法得到的结果却是一个大于1的实数,问题也不知道出现在哪里。谁能帮我指点一下,不胜感激=。=
    首先我们先定义embedding矩阵

    embedding = tf.Variable(
        tf.random_uniform([vocab_size,embedding_size],-1.0,1.0),name='embedding')
    

    接下来就是一些计算词向量的方法 ,假设已经有了词向量矩阵,那么我们如故计算向量之间的余弦相似度呢?
    我们需要现对词向量矩阵进行归一化,假设有一个向量(a=(x_1,x_2,x_3)),求的公式就为(sqrt{x_1^2+x_2^2+x_3^2} quad),对应的代码如下

    norm = tf.sqrt(tf.reduce_sum(tf.square(embeddings), 1, keepdims=True))
    

    需要注意的是reduce_sum方法里面的参数,keepdims的含义为retains reduced dimensions with length 1,即保持减少的那一个维度(axis)的值为1

    x = tf.constant([[1, 1, 1], [1, 1, 1]])
    tf.reduce_sum(x) # 6
    tf.reduce_sum(x, 0) # [2, 2, 2]
    tf.reduce_sum(x, 1) # [3, 3]
    tf.reduce_sum(x, 1, keepdims=True) # [[3], [3]]
    tf.reduce_sum(x, [0, 1]) # 6
    

    再接下来就是求(cos heta)

    normalized_embeddings = embedding / norm 
    #对验证集中的数据进行归一化
    valid_embeddings = tf.nn.embedding_lookup(
        normalized_embeddings, valid_x)
    #计算相似性
    similarity = tf.matmul(valid_embeddings, tf.transpose(normalized_embeddings))
    
  • 相关阅读:
    系统数据库如何恢复Master数据库
    在Orderby子句中使用CASE 语句
    SQL NOTECURSOR
    MVC 中静态文件部分动态化
    SQL NOTCTE
    Get data style from Excel
    SQL NOTPARTITION
    LAMDA表达式学习
    SQL NOTEVARIABLE
    起II6.0中使用windows2003自带的虚拟主机管理系统
  • 原文地址:https://www.cnblogs.com/wxshi/p/9262383.html
Copyright © 2020-2023  润新知