● Word2Vec中skip-gram是什么,Negative Sampling怎么做
参考回答:
● .FastText和Glovec原理
参考回答:
Glovec融合了矩阵分解和全局统计信息的优势,统计语料库的词-词之间的共现矩阵,加快模型的训练速度而且又可以控制词的相对权重。
● word2vec实施过程
参考回答:
词向量训练的预处理步骤:
1.对输入的文本生成一个词汇表,每个词统计词频,按照词频从高到低排序,取最频繁的V个词,构成一个词汇表。每个词存在一个one-hot向量,向量的维度是V,如果该词在词汇表中出现过,则向量中词汇表中对应的位置为1,其他位置全为0。如果词汇表中不出现,则向量为全0
2.将输入文本的每个词都生成一个one-hot向量,此处注意保留每个词的原始位置,因为是上下文相关的
3.确定词向量的维数N
Skip-gram处理步骤:
1.确定窗口大小window,对每个词生成2*window个训练样本,(i, i-window),(i, i-window+1),...,(i, i+window-1),(i, i+window)
2.确定batch_size,注意batch_size的大小必须是2*window的整数倍,这确保每个batch包含了一个词汇对应的所有样本
3.训练算法有两种:层次Softmax和Negative Sampling
4.神经网络迭代训练一定次数,得到输入层到隐藏层的参数矩阵,矩阵中每一行的转置即是对应词的词向量
CBOW的处理步骤:
1.确定窗口大小window,对每个词生成2*window个训练样本,(i-window, i),(i-window+1, i),...,(i+window-1, i),(i+window, i)
2.确定batch_size,注意batch_size的大小必须是2*window的整数倍,这确保每个batch包含了一个词汇对应的所有样本
3.训练算法有两种:层次Softmax和Negative Sampling
4.神经网络迭代训练一定次数,得到输入层到隐藏层的参数矩阵,矩阵中每一行的转置即是对应词的词向量
参数矩阵解释:
对输入层到隐藏层的参数包含W和b,我们需要的是W,这里的W是一个矩阵,shape=(N,V)。其中V是上文所述的词表的大小,N是需要生成的词向量的维数。N同样也是隐藏层(第一层)中的隐藏节点个数。
神经网络像是一个黑盒子,这其中的概念很难理解,这里给出我对词向量训练的个人理解:对于每个词s,训练数据对应的标记是另一个词t,训练其实是想找到一种映射关系,让s映射到t。但很显然我们不是希望找到一个线性函数,使得给定s一定能得到t,我们希望的是能够通过s得到一类词T,包含t。对于T中的每个t,由于在s上下文中出现的频次不同,自然能得到一个概率,频次越高说明s与t相关性越高。
对于词向量,或者说参数矩阵W,可以认为是一个将词映射到语义空间的桥梁,s与t相关性越高,则认为其在语义空间中越近,那么对应的桥梁也越靠近。如果用向量来理解的话就是向量之前的夹角越小,我们使用向量来表示这个词的信息,重要的是得到了语义信息。在实际应用中,生成一段文本,我们可以判断词与词的向量之间相似度,如果过低则就需要怀疑是否正确了。
● softmax的原理了解
参考回答:
考虑将样本共有k类,每一类的概率分别为,由于,所以通常我们只需要k-1个参数即可
,
为了推导,引入表达式:
上面T(y)是k-1维列向量,其中y = 1, 2, ...k.
T(y)i 表示向量T(y)的第i个元素。
还要引入表达式,如果大括号里面为真,则真个表达式就为1,否则为0.例如:1{2=3} = 0和1{3=3} = 1.
则上面的k个向量就可以表示为
以为y只能属于某一个类别,于是T(y)中只能有一个元素为1其他元素都为0,可以求出k-1个元素的期望:
定义:
其中i = 1,2,...k.则有:
也就容易得出:,由该式和上面使得等式:一起可以得到:这个函数就是softmax函数。
然后假设和具有线性关系,即
于是从概率的角度出发:
其中这个模型就是softmax回归(softmax regression),它是逻辑回归的泛化。
这样我们的输出:
就是输出了x属于(1,2,...k-1)中每一类的概率,当然属于第k类的概率就是:
下面开始拟合参数
同样使用最大化参数θ的对数似然函数:
● Wod2vec公式
参考回答:
CBOW
Skip-gram
Negative Sampling
CBOW
Skip-gram
● Wod2vec公式
参考回答:
CBOW
Skip-gram
Negative Sampling
CBOW
Skip-gram