• L25词嵌入进阶GloVe模型


    词嵌入进阶

    “Word2Vec的实现”一节中,我们在小规模数据集上训练了一个 Word2Vec 词嵌入模型,并通过词向量的余弦相似度搜索近义词。虽然 Word2Vec 已经能够成功地将离散的单词转换为连续的词向量,并能一定程度上地保存词与词之间的近似关系,但 Word2Vec 模型仍不是完美的,它还可以被进一步地改进:

    1. 子词嵌入(subword embedding):FastText 以固定大小的 n-gram 形式将单词更细致地表示为了子词的集合,而 BPE (byte pair encoding) 算法则能根据语料库的统计信息,自动且动态地生成高频子词的集合;
    2. GloVe 全局向量的词嵌入: 通过等价转换 Word2Vec 模型的条件概率公式,我们可以得到一个全局的损失函数表达,并在此基础上进一步优化模型。

    实际中,我们常常在大规模的语料上训练这些词嵌入模型,并将预训练得到的词向量应用到下游的自然语言处理任务中。本节就将以 GloVe 模型为例,演示如何用预训练好的词向量来求近义词和类比词。

    GloVe 全局向量的词嵌入

    GloVe 模型

    先简单回顾以下 Word2Vec 的损失函数(以 Skip-Gram 模型为例,不考虑负采样近似):

    t=1Tmjm,j0logP(w(t+j)w(t)) -sum_{t=1}^Tsum_{-mle jle m,j e 0} log P(w^{(t+j)}mid w^{(t)})

    其中

    P(wjwi)=exp(ujvi)kVexp(ukvi) P(w_jmid w_i) = frac{exp(oldsymbol{u}_j^ opoldsymbol{v}_i)}{sum_{kinmathcal{V}}exp(oldsymbol{u}_k^ opoldsymbol{v}_i)}

    wiw_i 为中心词,wjw_j 为背景词时 Skip-Gram 模型所假设的条件概率计算公式,我们将其简写为 qijq_{ij}

    注意到此时我们的损失函数中包含两个求和符号,它们分别枚举了语料库中的每个中心词和其对应的每个背景词。实际上我们还可以采用另一种计数方式,那就是直接枚举每个词分别作为中心词和背景词的情况:

    iVjVxijlogqij -sum_{iinmathcal{V}}sum_{jinmathcal{V}} x_{ij}log q_{ij}

    其中 xijx_{ij} 表示整个数据集中 wjw_j 作为 wiw_i 的背景词的次数总和。

    我们还可以将该式进一步地改写为交叉熵 (cross-entropy) 的形式如下:

    iVxijVpijlogqij -sum_{iinmathcal{V}}x_isum_{jinmathcal{V}}p_{ij} log q_{ij}

    其中 xix_iwiw_i 的背景词窗大小总和,pij=xij/xip_{ij}=x_{ij}/x_iwjw_jwiw_i 的背景词窗中所占的比例。

    从这里可以看出,我们的词嵌入方法实际上就是想让模型学出 wjw_j 有多大概率是 wiw_i 的背景词,而真实的标签则是语料库上的统计数据。同时,语料库中的每个词根据 xix_i 的不同,在损失函数中所占的比重也不同。

    注意到目前为止,我们只是改写了 Skip-Gram 模型损失函数的表面形式,还没有对模型做任何实质上的改动。而在 Word2Vec 之后提出的 GloVe 模型,则是在之前的基础上做出了以下几点改动:

    1. 使用非概率分布的变量 pij=xijp'_{ij}=x_{ij}qij=exp(ujvi)q′_{ij}=exp(oldsymbol{u}^ op_joldsymbol{v}_i),并对它们取对数;
    2. 为每个词 wiw_i 增加两个标量模型参数:中心词偏差项 bib_i 和背景词偏差项 cic_i,松弛了概率定义中的规范性;
    3. 将每个损失项的权重 xix_i 替换成函数 h(xij)h(x_{ij}),权重函数 h(x)h(x) 是值域在 [0,1][0,1] 上的单调递增函数,松弛了中心词重要性与 xix_i 线性相关的隐含假设;
    4. 用平方损失函数替代了交叉熵损失函数。

    综上,我们获得了 GloVe 模型的损失函数表达式:

    iVjVh(xij)(ujvi+bi+cjlogxij)2 sum_{iinmathcal{V}}sum_{jinmathcal{V}} h(x_{ij}) (oldsymbol{u}^ op_joldsymbol{v}_i+b_i+c_j-log x_{ij})^2

    由于这些非零 xijx_{ij} 是预先基于整个数据集计算得到的,包含了数据集的全局统计信息,因此 GloVe 模型的命名取“全局向量”(Global Vectors)之意。

    载入预训练的 GloVe 向量

    GloVe 官方 提供了多种规格的预训练词向量,语料库分别采用了维基百科、CommonCrawl和推特等,语料库中词语总数也涵盖了从60亿到8,400亿的不同规模,同时还提供了多种词向量维度供下游模型使用。

    torchtext.vocab 中已经支持了 GloVe, FastText, CharNGram 等常用的预训练词向量,我们可以通过声明 torchtext.vocab.GloVe 类的实例来加载预训练好的 GloVe 词向量。

    import torch
    import torchtext.vocab as vocab
    
    print([key for key in vocab.pretrained_aliases.keys() if "glove" in key])
    cache_dir = "/home/kesci/input/GloVe6B5429"
    glove = vocab.GloVe(name='6B', dim=50, cache=cache_dir)
    print("一共包含%d个词。" % len(glove.stoi))
    print(glove.stoi['beautiful'], glove.itos[3366])
    
    ['glove.42B.300d', 'glove.840B.300d', 'glove.twitter.27B.25d', 'glove.twitter.27B.50d', 'glove.twitter.27B.100d', 'glove.twitter.27B.200d', 'glove.6B.50d', 'glove.6B.100d', 'glove.6B.200d', 'glove.6B.300d']
    一共包含400000个词。
    3366 beautiful
    

    求近义词和类比词

    求近义词

    由于词向量空间中的余弦相似性可以衡量词语含义的相似性(为什么?),我们可以通过寻找空间中的 k 近邻,来查询单词的近义词。

    def knn(W, x, k):
        '''
        @params:
            W: 所有向量的集合
            x: 给定向量
            k: 查询的数量
        @outputs:
            topk: 余弦相似性最大k个的下标
            [...]: 余弦相似度
        '''
        cos = torch.matmul(W, x.view((-1,))) / (
            (torch.sum(W * W, dim=1) + 1e-9).sqrt() * torch.sum(x * x).sqrt())
        _, topk = torch.topk(cos, k=k)
        topk = topk.cpu().numpy()
        return topk, [cos[i].item() for i in topk]
    
    def get_similar_tokens(query_token, k, embed):
        '''
        @params:
            query_token: 给定的单词
            k: 所需近义词的个数
            embed: 预训练词向量
        '''
        topk, cos = knn(embed.vectors,
                        embed.vectors[embed.stoi[query_token]], k+1)
        for i, c in zip(topk[1:], cos[1:]):  # 除去输入词
            print('cosine sim=%.3f: %s' % (c, (embed.itos[i])))
    
    get_similar_tokens('chip', 3, glove)
    
    cosine sim=0.856: chips
    cosine sim=0.749: intel
    cosine sim=0.749: electronics
    
    
    100%|█████████▉| 398393/400000 [00:30<00:00, 38997.22it/s]
    
    get_similar_tokens('baby', 3, glove)
    
    cosine sim=0.839: babies
    cosine sim=0.800: boy
    cosine sim=0.792: girl
    
    get_similar_tokens('beautiful', 3, glove)
    
    cosine sim=0.921: lovely
    cosine sim=0.893: gorgeous
    cosine sim=0.830: wonderful
    

    求类比词

    除了求近义词以外,我们还可以使用预训练词向量求词与词之间的类比关系,例如“man”之于“woman”相当于“son”之于“daughter”。求类比词问题可以定义为:对于类比关系中的4个词“aa 之于 bb 相当于 cc 之于 dd”,给定前3个词 a,b,ca,b,cdd。求类比词的思路是,搜索与 vec(c)+vec(b)vec(a) ext{vec}(c)+ ext{vec}(b)− ext{vec}(a) 的结果向量最相似的词向量,其中 vec(w) ext{vec}(w)ww 的词向量。

    def get_analogy(token_a, token_b, token_c, embed):
        '''
        @params:
            token_a: 词a
            token_b: 词b
            token_c: 词c
            embed: 预训练词向量
        @outputs:
            res: 类比词d
        '''
        vecs = [embed.vectors[embed.stoi[t]] 
                    for t in [token_a, token_b, token_c]]
        x = vecs[1] - vecs[0] + vecs[2]
        topk, cos = knn(embed.vectors, x, 1)
        res = embed.itos[topk[0]]
        return res
    
    get_analogy('man', 'woman', 'son', glove)
    
    'daughter'
    
    get_analogy('beijing', 'china', 'tokyo', glove)
    
    'japan'
    
    get_analogy('bad', 'worst', 'big', glove)
    
    'biggest'
    
    get_analogy('do', 'did', 'go', glove)
    
    'went'
    
    
    
  • 相关阅读:
    20201120-1 每周例行报告
    20201112-1 每周例行报告
    20201105-1 每周例行报告
    20201029-1 每周例行报告
    20201022-1 每周例行报告
    20201015-3 每周例行报告
    20201008-1 每周例行报告
    20200924-1 每周例行报告
    使用代理服务器的方式在一个端口上运行多个服务
    只出现一次的数字
  • 原文地址:https://www.cnblogs.com/supercodeing/p/12332757.html
Copyright © 2020-2023  润新知