• 《【原创】推荐系统


    【原创】推荐系统 - 大规模信息网络 Embedding 表征学习

     

    _机器学习算法全栈工程师 - CSDN 博客_concatenate.cpp

    作者:卢   伟           

    编辑:陈人和           

    公众号后台回复 Emb,获得本文论文和代码

    前  言

    本篇文章提出的算法定义了两种相似度:一阶相似度和二阶相似度,一阶相似度为直接相连的节点之间的相似,二阶相似度为存不直接相连单存在相同邻近节点的相似。还提出来一个针对带权图的边采样算法,来优化权重大小差异大,造成梯度优化的时候梯度爆炸的问题。

    该方法相比于 deepwalk 来说,deepwalk 本身是针对无权重的图,而且根据其优化目标可以大致认为是针对二阶相似度的优化,但是其使用 random walk 可以认为是一种 DFS 的搜索遍历,而针对二阶相似度来说,BFS 的搜索遍历更符合逻辑。而 LINE 同时考虑来一阶和二阶相似度,一阶相似度可以认为是局部相似度,直接关联。二阶相似度可以作为一阶相似度的补充,来弥补一阶相似度的稀疏性。

    章节目录

    • 论文解读

    • 源码说明与运行

    • 源码解析

    • 分布式实现(腾讯 Angel)

    • 推荐场景中的实际应用

    01

    论文解读

    定义

    信息网络 (information Network) 信息网络被定义为 G(V, E), 其中 V 是节点集合,E 表示边的集合。其中每条边定义一个有序对:e=(u, v),并分配一个权重值 w_uv 用于表示点 u 和点 v 之间联系的强弱。如果为无向图的话,(u, v) = (v, u),w_uv = w_vu。

    一阶相似性(First-order Proximity)一阶相似性定义为两个节点之间的局部成对相似性。对于由边 (u, v) 链接的节点对,其链接权重 w_uv 用于表示节点 u 和节点 v 之间的一阶相似性,如果两个节点之间没有边相连,那么他们的一阶相似性为 0。

    一阶相似性固然可以直接表示节点之间的相似性,但是在真实环境下的信息网络往往存在大量的信息缺失,而许多一阶相似度为 0 的节点,他们本质上相似度也很高。自然能想到的是那些拥有相似邻近节点的节点可能会存在一定的相似性。比如在真实环境中,拥有相同朋友的两个人也很可能认识,经常在同一个词的集合中出现的两个词也很有可能很相似。

    举例:上图中 6 和 7 就是一阶相似,因为 6 和 7 直接相连。

    二阶相似性 (Second-order Proximity) 两个节点的二阶相似性是他们的邻近网络结构的相似性。如 

    表示 u 对全部节点的一阶相似性。那么节点 u 和节点 v 的二阶相似性由 p_u 和 p_v 决定。如果没有节点同时链接 u 和 v,那么 u 和 v 的二阶相似度为 0。

    举例:上图中的 5 和 6 就是二阶相似,因为它们虽然没有直接相连,但是它们连接的其他节点中有重合(1, 2, 3, 4)。

    一阶近似

    定义两个点(点 vi 和 vj)之间的联合概率:

    其中,u_i 和 u_j 属于 R^d 是节点 i 和 j 的低维 embedding 向量,直接利用 sigmoid 来度量两个节点的相似度。

    而对应的需要拟合的经验概率为 

    ,即为全部权重的归一化后的占比,这里

    ,所以对应的优化目标为

    这就是我们的目标函数,即损失函数,我们要最小化该目标,让预定义的两个点之间的联合概率尽量靠近经验概率。d(.,.) 用于度量两个分布之间的距离,作者选择 KL 散度(即交叉熵)来作为距离度量。那么使用 KL 散度并忽略常数项后,可以得到:

     这就是最终的优化目标,这里需要注意,一阶相似度只能用于无向图。

    二阶近似

    二阶相似度同时适用于有向图和无向图。

    二阶的含义可以理解为每个节点除了其本身外还代表了其所对应的上下文,如果节点的上下文分布接近那么可以认为这两个节点相似。

    以有向边为例,有向边 (i, j) 定义节点 v_i 的上下文(邻接)节点 v_j 的概率为:

    其中 | V | 是上下文节点的数量。其实和一阶的思路类似,这里用 softmax 对邻接节点做了一下归一化。优化目标也是去最小化分布之间的距离:

    这里 d(. , .) 用于度量两个分布之间的差距。因为考虑到图中的节点重要性可能不一样,所以设置了参数λi 来对节点进行加权。可以通过节点的出入度或者用 pagerank 等算法来估计出来。而这里的经验分布则被定义为:

    其中,w_ij 是边 (i, j) 的权重,d_i 是节点 i 的出度,即

    而 N(i) 就是节点 i 的出度节点的集合。同样采用 KL 散度作为距离度量,可以得到如下优化目标:

    注意:

    这里有个坑,非常容易让人误解。就是二阶边(i, j)其实根本不是上图中的 5 和 6,同一个图里,基本不会出现同时存在二阶和一阶关系的图,一般只能二选一,具体原因见下一小节。二阶边(i, j)应该就是 (1, 5)、(1, 6) 这种边的关系,因为 1 的自身向量和 5 的上下文向量接近。而为什么我们说 5 和 6 是二阶关系呢?因为是按照这种算法,算出来和 5 相似的就是 6,所以才说 5 和 6 是二阶关系,即 5 和 6 是二阶相似,是计算的结果的体现,不是说训练数据就有 (5, 6) 这条边!。

    结合一阶近似和二阶近似

    文章提到暂时还不能将一阶和二阶相似度进行联合训练,只能将他们单独训练出 embedding,然后在做 concatenate。

    但是一般来说,从节点和边的性质上来说,能用一阶就不能用二阶,反之亦然。比如 github 上的相互关注,就是典型的一阶关系,因为彼此都是好基友。但是比如抖音上的屌丝男关注了女神,那就绝对不能用一阶关系,而应该是二阶关系。

    负采样

    这个算是一个常见的技巧,在做 softmax 的时候,分母的计算要遍历所有节点,这部分其实很费时,所以在分母的求和数量较大的时候,经常会使用负采样技术。

    边采样

    也是训练的一个优化,因为优化函数中由一个 w 权重,在实际的数据集中,因为链接的大小差异会很大,这样的话会在梯度下降训练的过程中很难去选择好一个学习率。直观的想法是把权重都变成 1,然后把 w 权重的样本复制 w 份,但是这样会占用更大的内存。第二个方法是按 w 权重占比做采样,可以减少内存开销。

    这篇文章就是按照第二种方法,用一种复杂度为 O(1) 的方法:alias 采样法,该方法在本文后面有详细描述。

    02

    源码说明与运行

    代码说明

    在 https://github.com/tangjianpku/LINE 下载代码。下载下来的代码说明:

    LINE:大规模的信息网络嵌入

    1 介绍

    这是为了嵌入非常大规模的信息网络而开发的 LINE 工具箱。它适用于各种网络,包括有向,无向,无权或加权边。LINE 模型非常高效,能够在几个小时内在单台机器上嵌入数百万个顶点和数十亿个边界的网络。

    联系人:唐建,tangjianpku@gmail.com

    项目页面:https://sites.google.com/site/pkujiantang/line

    当作者在微软研究院工作时,这项工作就完成了

    2 用法

    我们提供 Windows 和 LINUX 版本。为了编译源代码,需要一些外部包,用于为 LINE 模型中的边缘采样算法生成随机数。对于 Windows 版本,使用 BOOST 软件包,可以从 http://www.boost.org / 下载; 对于 LINUX,使用 GSL 包,可以从 http://www.gnu.org/software/gsl / 下载。

    3 网络输入

    网络的输入由网络中的边组成。输入文件的每一行代表网络中的一个 DIRECTED 边缘,指定为格式 “起点 - 终点 - 权重”(可以用空格或制表符分隔)。对于每个无向边,用户必须使用两个 DIRECTED 边来表示它。以下是一个词共现网络的输入示例:

    good the 3
    the good 3
    good bad 1
    bad good 1
    bad of 4
    of bad 4

    4 运行

    ./line -train network_file -output embedding_file -binary 1 -size 200 -order 2 -negative 5 -samples 100 -rho 0.025 -threads 20
    
    
    • train,网络的输入文件;

    • output,嵌入的输出文件;

    • binary,是否以二进制模式保存输出文件; 默认是 0(关);

    • size,嵌入的维度; 默认是 100;

    • order,使用的相似度; 1 为一阶,2 为二阶; 默认是 2;

    • negative,负采样中负采样样本的数目;默认是 5;

    • samples,训练样本总数(* 百万);

    • rho,学习率的起始值; 默认是 0.025;

    • threads,使用的线程总数; 默认是 1。

    5 文件夹中的文件

    reconstruct.cpp:用于将稀疏网络重建为密集网络的代码

    line.cpp:LINE 的源代码;

    normalize.cpp:用于归一化嵌入的代码(l2 归一化);

    concatenate.cpp:用于连接一阶和二阶嵌入的代码;

    6 示例

    运行 Youtube 数据集(可在 http://socialnetworks.mpi-sws.mpg.de/data/youtube-links.txt.gz 处获得)的示例在 train_youtube.bat / train_youtube .sh 文件中提供

    数据集

    Youtube 数据集:网络中的节点代表用户,有联系的用户之间有边。YouTube 网络是一个无向、无权的网络。

    数据集从 http://socialnetworks.mpi-sws.mpg.de/data/youtube-links.txt.gz 下载。下载的数据集文件中,每行有两个数字,中间以制表符隔开,代表网络中的一条边,两个数字分别代表边的起点和终点。因为是无权图,因此不需要权重的值。因为是无向图,因此每条边在文件中出现两次,如 (1, 2) 和(2, 1),代表同一条边。

    数据集中共包括 4945382 条边(有向边,因为无向图中每条边被看做两条有向边,所以 Youtube 网络中有 2472691 条边)和至少 937968 个点(文件中节点的名字并不是连续的,有些节点的度为 0,在数据集文件中没有出现)。

    运行示例

    在 Youtube 数据集上运行算法的示例在 train_youtube.bat / train_youtube.sh 文件中提供。算法运行分为五步:

    将单向的关系变为双向的关系,因为 youtobe 好有关系是无向图

    python3 preprocess_youtube.py youtube-links.txt net_youtube.txt
    
    

    通过 reconstruct 程序对原网络进行重建(1h)

    ./reconstruct -train net_youtube.txt -output net_youtube_dense.txt -depth 2 -threshold 1000
    
    

    两次运行 line,分别得到一阶相似度和二阶相似度下的 embedding 结果

    ./line -train net_youtube_dense.txt -output vec_1st_wo_norm.txt -binary 1 -size 128 -order 1 -negative 5 -samples 10000 -threads 40
    ./line -train net_youtube_dense.txt -output vec_2nd_wo_norm.txt -binary 1 -size 128 -order 2 -negative 5 -samples 10000 -threads 40

    利用 normalize 程序将实验结果进行归一化

    ./normalize -input vec_1st_wo_norm.txt -output vec_1st.txt -binary 1
    ./normalize -input vec_2nd_wo_norm.txt -output vec_2nd.txt -binary 1

    使用 concatenate 程序连接一阶嵌入和二阶嵌入的结果

    ./concatenate -input1 vec_1st.txt -input2 vec_2nd.txt -output vec_all.txt -binary 1
    
    

    编译 LINE 源码

    1 编译时遇到的问题

    编译 LINE 源码时,会遇到一些问题:

    linux 下 GSL 安装:

    https://blog.csdn.net/waleking/article/details/8265008/

    注意,可能会报错:

    line.cpp:(.text+0x30b8): undefined reference to `gsl_rng_uniform'

    这时候,需要在编译选项

    -lm -pthread -Ofast -march=native -Wall -funroll-loops -ffast-math -Wno-unused-result
    
    

    中加入

    -lgsl -lgslcblas
    
    

    就好啦。

    具体参见 linux 下 GSL 安装、can't link GSL properly?。

    https://www.daniweb.com/programming/software-development/threads/289812/can-t-link-gsl-properly

    2 运行时遇到的问题

    问题 1

    ../bin/reconstruct -train ../data/net_youtube.txt -output ../data/net_youtube_dense.txt -depth 2 -threshold 1000
    
    

    会出现

    ../bin/reconstruct: error while loading shared libraries: libgsl.so.23: cannot open shared object file: No such file or directory
    
    

    解决办法:

    export LD_LIBRARY_PATH=/usr/local/lib
    
    

    具体参见 error while loading shared libraries: libgsl.so.23: cannot open shared object file: No such file or directory:

    https://stackoverflow.com/questions/45665878/a-out-error-while-loading-shared-libraries-libgsl-so-23-cannot-open-shared

    问题 2

    运行代码时可能还会遇到这个问题:

    ../bin/line: /lib64/libm.so.6: version `GLIBC_2.15' not found (required by ../bin/line)

    基本是因为你在其他该版本系统上编译好了,又在低版本系统上直接运行了。只需要在低版本上重新 make 编译一下就好。

    源码中存在的 bug

    源码中在计算输出的时候,数组的 index 是 int 型,如果数据量一大,就非常容易超出 int 的范围 21 亿,则就会出错,出错类型是:segment fault,这是因为超出 int 型范围后,index 就成了负数了,则数组就会向前检索,一旦求址到达内存中的不可访问区域,则就会报错。

    要改正这个 bug 很简单,就是强制将 index 的数据类型改为 longlong 就行:

    if (is_binary) for (b = 0; b < (unsigned long long)dim; b++) fwrite(&emb_vertex[a * (unsigned long long)dim + b], sizeof(real), 1, fo_vertex);
     
     

    03

    源码解析

    在 Youtube 数据集上运行算法的示例在 train_youtube.bat / train_youtube.sh 文件中提供。算法运行分为五步:

    将单向的关系变为双向的关系,因为 youtobe 好有关系是无向图

    python3 preprocess_youtube.py youtube-links.txt net_youtube.txt
    
    

    通过 reconstruct 程序对原网络进行稠密化(1h)

    ./reconstruct -train net_youtube.txt -output net_youtube_dense.txt -depth 2 -threshold 1000
    
    

    两次运行 line,分别得到一阶相似度和二阶相似度下的 embedding 结果

    ./line -train net_youtube_dense.txt -output vec_1st_wo_norm.txt -binary 1 -size 128 -order 1 -negative 5 -samples 10000 -threads 40
    ./line -train net_youtube_dense.txt -output vec_2nd_wo_norm.txt -binary 1 -size 128 -order 2 -negative 5 -samples 10000 -threads 40

    利用 normalize 程序将实验结果进行归一化

    ./normalize -input vec_1st_wo_norm.txt -output vec_1st.txt -binary 1
    ./normalize -input vec_2nd_wo_norm.txt -output vec_2nd.txt -binary 1

    使用 concatenate 程序连接一阶嵌入和二阶嵌入的结果

    ./concatenate -input1 vec_1st.txt -input2 vec_2nd.txt -output vec_all.txt -binary 1
    
    

    下面我们依次分析这些源码:

    1train_youtube.sh

    这个代码很简单,就是上述的流程。建议自己先把 youtube-links.txt 数据下下来,把那段下载的代码屏蔽掉,这样快一些。

    #!/bin/sh
     
    g++ -lm -pthread -Ofast -march=native -Wall -funroll-loops -ffast-math -Wno-unused-result line.cpp -o line -lgsl -lm -lgslcblas
    g++ -lm -pthread -Ofast -march=native -Wall -funroll-loops -ffast-math -Wno-unused-result reconstruct.cpp -o reconstruct
    g++ -lm -pthread -Ofast -march=native -Wall -funroll-loops -ffast-math -Wno-unused-result normalize.cpp -o normalize
    g++ -lm -pthread -Ofast -march=native -Wall -funroll-loops -ffast-math -Wno-unused-result concatenate.cpp -o concatenate
     
     
    wget http://socialnetworks.mpi-sws.mpg.de/data/youtube-links.txt.gz
    gunzip youtube-links.txt.gz
     
     
    python3 preprocess_youtube.py youtube-links.txt net_youtube.txt
    ./reconstruct -train net_youtube.txt -output net_youtube_dense.txt -depth 2 -threshold 1000
    ./line -train net_youtube_dense.txt -output vec_1st_wo_norm.txt -binary 1 -size 128 -order 1 -negative 5 -samples 10000 -threads 40
    ./line -train net_youtube_dense.txt -output vec_2nd_wo_norm.txt -binary 1 -size 128 -order 2 -negative 5 -samples 10000 -threads 40
    ./normalize -input vec_1st_wo_norm.txt -output vec_1st.txt -binary 1
    ./normalize -input vec_2nd_wo_norm.txt -output vec_2nd.txt -binary 1
    ./concatenate -input1 vec_1st.txt -input2 vec_2nd.txt -output vec_all.txt -binary 1
     
     
    cd evaluate
    ./run.sh ../vec_all.txt
    python3 score.py result.txt

    2reconstruct.cpp

    这个代码的作用是稠密化一阶节点,对于少于指定的边数(比如 1000)的节点,将其二阶节点采样,作为一阶节点来使用。

    但是注意,用二阶节点来稠密一阶节点,只能针对无向图,而针对有向图,如果要稠密化一阶节点,就要取其三阶节点,但是因为多了一层,导致准确度会下降。所以,究竟是稠密化节点带来的好处多,还是多了一层导致准确性的下降带来的坏处多,需要具体实验判定。

    核心代码如下:

    for (sv = 0; sv != num_vertices; sv++)
    {
        ///xxx
        sum = vertex[sv].sum_weight;
        node.push(sv);
        depth.push(0);
        weight.push(sum);
        while (!node.empty())
        {
            cv = node.front();
            cd = depth.front();
            cw = weight.front();
     
     
            node.pop();
            depth.pop();
            weight.pop();
     
     
            if (cd != 0) vid2weight[cv] += cw;// 一阶+二阶
     
     
            if (cd < max_depth)
            {
                len = neighbor[cv].size();// 该节点的出度
                sum = vertex[cv].sum_weight;// 该节点的出度权值之和
     
     
                for (int i = 0; i != len; i++)
                {
                    node.push(neighbor[cv][i].vid);// 该节点的所有出度的链接节点
                    depth.push(cd + 1);// 阶层加1
                    weight.push(cw * neighbor[cv][i].weight / sum);//
                }
            }
        }
        //xxx
    }

    3line.cpp

     这个程序和 word2vec 的风格很像,估计就是从 word2vec 改的。

    首先在 main 函数这,特别说明一个参数:total_samples,这个参数是总的训练次数,LINE 没有训练轮数的概念,因为 LINE 是随机按照权重选择边进行训练的。

    我们直接看 TrainLINE() 函数中的 TrainLINEThread() 这个函数,多线程跑的就是这个函数。

    训练结束条件是,当训练的次数超过total_samples的次数以后就停止训练。如下:

    if (count > total_samples / num_threads + 2) break;
    
    

    首先要按边的权重采集一条边 edge(u, v),得到其这条边的起始点 u 和目标点 v:

    curedge = SampleAnEdge(gsl_rng_uniform(gsl_r), gsl_rng_uniform(gsl_r));
    u = edge_source_id[curedge];
    v = edge_target_id[curedge];

    然后最核心的部分就是负采样并根据损失函数更新参数:

    lu = u * dim;
    for (int c = 0; c != dim; c++) vec_error[c] = 0;
     
     
    // NEGATIVE SAMPLING
    for (int d = 0; d != num_negative + 1; d++)
    {
        if (d == 0)
        {
            target = v;
            label = 1;
        }
        else
        {
            target = neg_table[Rand(seed)];
            label = 0;
        }
        lv = target * dim;
        if (order == 1) Update(&emb_vertex[lu], &emb_vertex[lv], vec_error, label);
        if (order == 2) Update(&emb_vertex[lu], &emb_context[lv], vec_error, label);
    }
    for (int c = 0; c != dim; c++) emb_vertex[c + lu] += vec_error[c];

    很显然,1 阶关系训练的是两个节点的emb_vertex,而 2 阶关系训练的是开始节点的emb_vertex(节点本身的 embedding)和目标节点的emb_context(节点上下文的 embedding)。

    接下来进入最关键的权值更新函数Update()

    /* Update embeddings */
    void Update(real *vec_u, real *vec_v, real *vec_error, int label)
    {
        real x = 0, g;
        for (int c = 0; c != dim; c++) x += vec_u[c] * vec_v[c];
        g = (label - FastSigmoid(x)) * rho;
        for (int c = 0; c != dim; c++) vec_error[c] += g * vec_v[c];
        for (int c = 0; c != dim; c++) vec_v[c] += g * vec_u[c];
    }

    这时我们需要回到论文中,看公式(8)和公式(7):

     这下代码应该就很容易能理解了。

    上式中的

     对应 TrainLINEThread() 负采样部分中的

    target = neg_table[Rand(seed)];
    label = 0;

    边 eage(u, v) 中的 v 会在每次 update 时更新,u 会在负采样完之后统一更新。

    // 边eage(u, v)中的v会在每次update时更新
    void Update(real *vec_u, real *vec_v, real *vec_error, int label)
    {
        xxxxx
        for (int c = 0; c != dim; c++) vec_error[c] += g * vec_v[c];
        for (int c = 0; c != dim; c++) vec_v[c] += g * vec_u[c];
    }
     
     
    void *TrainLINEThread(void *id)
    {
        xxx
        while (1)
        {
            // NEGATIVE SAMPLING
            for (int d = 0; d != num_negative + 1; d++)
            {
                xxx
            }
            // 边eage(u, v)中的u会在负采样完之后统一更新
            for (int c = 0; c != dim; c++) emb_vertex[c + lu] += vec_error[c];
     
     
            count++;
        }
        xxx
    }

    4 时间复杂度 O[1] 的 Alias 离散采样算法

    Alias-Sampling-Method

    问题:比如一个随机事件包含四种情况,每种情况发生的概率分别为:

    ,问怎么用产生符合这个概率的采样方法。

    · 最容易想到的方法

    我之前有在【数学】均匀分布生成其他分布的方法中写过均匀分布生成其他分布的方法,这种方法就是产生 0~1 之间的一个随机数,然后看起对应到这个分布的 CDF 中的哪一个,就是产生的一个采样。比如落在 0~1/2 之间就是事件 A,落在 1/2~5/6 之间就是事件 B,落在 5/6~11/12 之间就是事件 C,落在 11/12~1 之间就是事件 D。

    但是这样的复杂度,如果用 BST 树来构造上面这个的话,时间复杂度为 O(logN),有没有时间复杂度更低的方法。

    · 一个 Naive 的办法

    一个 Naive 的想法如下: 

    可以像上图这样采样,将四个事件排成 4 列:1~4,扔两次骰子,第一次扔 1~4 之间的整数,决定落在哪一列。

    1. 如上如所示,将其按照最大的那个概率进行归一化。在 1 步中决定好哪一列了之后,扔第二次骰子,0~1 之间的任意数,如果落在了第一列上,不论第二次扔几,都采样时间 A,如果落在第二列上,第二次扔超过 2323 则采样失败,重新采样,如果小于 2323 则采样时间 B 成功,以此类推。

    2. 这样算法复杂度最好为 O(1)O(1) 最坏有可能无穷次,平均意义上需要采样 O(N)

    那怎么去改进呢?

    ·Alias-Method

    这样 Alias Method 采样方法就横空出世了 

    还是如上面的那样的思路,但是如果我们不按照其中最大的值去归一化,而是按照其均值归一化。即按照 1/N(这里是 1/4)归一化,即为所有概率乘以 N,得到如下图:

    其总面积为 N,然后可以将其分成一个 1*N 的长方形,如下图: 

    将前两个多出来的部分补到后面两个缺失的部分中。先将 1 中的部分补充到 4 中: 

    这时如果,将 1,2 中多出来的部分,补充到 3 中,就麻烦了,因为又陷入到如果从中采样超过 2 个以上的事件这个问题中,所以 Alias Method 一定要保证:每列中最多只放两个事件 所以此时需要讲 1 中的补满 3 中去:

    再将 2 中的补到 1 中: 

    至此整个方法大功告成 Alias Method 具体算法如下: 

    1. 按照上面说的方法,将整个概率分布拉平成为一个 1*N 的长方形即为 Alias Table,构建上面那张图之后,储存两个数组,一个里面存着第 i 列对应的事件 i 矩形占的面积百分比【也即其概率】,上图的话数组就为 Prab[2/3, 1, 1/3, 1/3],另一个数组里面储存着第 i 列不是事件 i 的另外一个事件的标号,像上图就是 Alias[2 NULL 1 1]

    2. 产生两个随机数,第一个产生 1~N 之间的整数 i,决定落在哪一列。扔第二次骰子,0~1 之间的任意数,判断其与 Prab[i] 大小,如果小于 Prab[i],则采样 i,如果大于 Prab[i],则采样 Alias[i]

    这个算法是不是非常的精妙而且简洁,做到了 O(1) 事件复杂度的采样。但是还有一个问题是,如何去构建上面的第 1 步?即如何去拉平整个概率分布?这样预处理的时间复杂度又是多少呢?

    ·Alias-Method 程序化构建

    Naive 方法

    构建方法:1. 找出其中面积小于等于 1 的列,如 i 列,这些列说明其一定要被别的事件矩形填上,所以在 Prab[i] 中填上其面积 2. 然后从面积大于 1 的列中,选出一个,比如 j 列,用它将第 i 列填满,然后 Alias[i] = j,第 j 列面积减去填充用掉的面积。

    以上两个步骤一直循环,直到所有列的面积都为 1 了为止。

    存在性证明

    那么 Alias Table 一定存在吗,如何去证明呢?要证明 Alias Table 一定存在,就说明上述的算法是能够一直运行下去,直到所有列的面积都为 1 了为止,而不是会中间卡住。一个直觉就是,这一定是可以一直运行下去的。上述方法每运行一轮,就会使得剩下的没有匹配的总面积减去 1,在第 n 轮,剩下的面积为 N-n,如果存在有小于 1 的面积,则一定存在大于 1 的面积,则一定可以用大于 1 的面积那部分把小于 1 部分给填充到 1,这样就进入到了第 n+1 轮,最后一直到所有列面积都为 1。更为严谨的证明见 Blog:Darts, Dice, and Coins: Sampling from a Discrete Distribution。

    http://www.keithschwarz.com/darts-dice-coins/

    更快的构建方法

    如果按照上面的方法去构建 Alias Table,算法复杂度是 O(n^2) 的,因为最多需要跑 N 轮,而每跑一轮的最大都需要遍历 N 次。一个更好的办法是用两个队列 A,B 去储存面积大于 1 的节点标号,和小于 1 的节点标号,每次从两个队列中各取一个,将大的补充到小的之中,小的出队列,再看大的减去补给之后,如果大于 1,继续放入 A 中,如果等于 1,则也出去,如果小于 1 则放入 B 中。这样算法复杂度为 O(n)

    至此 Alias Method 就讲完了,感觉还是一个非常精妙的方法,而且方法实现起来也非常的简单。值得学习。

    04

    分布式实现(腾讯 Angel)

    LINE(Large-scale Information Network Embedding) 算法,是 Network Embedding 领域著名的算法之一,将图数据嵌入到向量空间,从达到用针对向量类型数据的机器学习算法来处理图数据的目的

    腾讯 Angel 实现了 LINE 的分布式版本。

    主页:Angel,

    https://www.bookstack.cn/read/angel/README.md

    LINE:LINE 或者 LINE

    https://github.com/Angel-ML/angel/blob/master/docs/algo/sona/line_sona.md

    GITHUB:LINE,可直接从 Github 上把源码下载到本地 IDEA 编辑器中打开。

    https://github.com/Angel-ML/angel/blob/master/spark-on-angel/mllib/src/main/scala/com/tencent/angel/spark/ml/embedding/line/LINEModel.scala

    运行示例

    进入/data2/recxxxd/angel-2.2.0-bin/bin,直接sh SONA-example,就可以运行了。可以打开SONA-example,查看其内容:

    #!/bin/bash
     
    source ./spark-on-angel-env.sh
     
     
    $SPARK_HOME/bin/spark-submit 
        --master yarn-cluster 
        --conf spark.ps.jars=$SONA_ANGEL_JARS 
        --conf spark.ps.instances=10 
        --conf spark.ps.cores=2 
        --conf spark.ps.memory=6g 
        --conf spark.hadoop.angel.ps.env="HADOOP_MAPRED_HOME=${HADOOP_MAPRED_HOME:-"/opt/yarn"}" 
        --conf spark.hadoop.angel.am.env="HADOOP_MAPRED_HOME=${HADOOP_MAPRED_HOME:-"/opt/yarn"}" 
        --conf spark.hadoop.angel.staging.dir="/tmp/recommend" 
        --jars $SONA_SPARK_JARS
        --name "LR-spark-on-angel" 
        --driver-memory 10g 
        --num-executors 10 
        --executor-cores 2 
        --executor-memory 4g 
        --class com.tencent.angel.spark.examples.basic.LR 
        ./../lib/spark-on-angel-examples-${ANGEL_VERSION}.jar 
        input:hdfs://nameservice3/tmp/lu.jiawei/angel 
        lr:0.1 

    ,要想改源码或者替换成其他模型,那就进入~/IdeaProjects/angel/spark-on-angel/examples,然后进行打包编译mvn package

    分布式实现原理

    LINE 算法的实现参考了 Yahoo 的论文

    Network–Efficient Distributed Word2vec Training System for Large Vocabularies

    , 将 Embedding 向量按维度拆分到多个 PS 上,节点之间的点积运算可以在每个 PS 内部进行局部运算,之后再拉取到 spark 端合并。Spark 端计算每个节点的梯度,推送到每个 PS 去更新每个节点对应的向量维度。

    05

    推荐场景中的实际应用

    LINE 在推荐中有三种应用。

    LINE 中的每个节点都有两个 embedding,vectex embedding 和 context embedding。

    (1)泛 User-Based 策略

    通过 vectex embedding 找出相似的节点,这样就找到了相似 User,然后将相似 User 看过的东西推荐给 User。

    (2)User->Item 策略

    直接通过 User 的 vertex embedding 找出相似 Item 的 Context embedding,直接将 Item 推荐给 User。

    (3)User->Item * Item->User 策略

    通过 User 的 vectext embedding 和 Item 的 Context embedding,计算 User 对 Item 的喜好,再通过 Item 的 vertex embedding 和 User 的 Context embedding,计算 Item 对 User 的喜好。然后两者相乘,就是双方的匹配程度。

    参考资料:

    • Embedding 算法 Line 源码简读

            https://blog.csdn.net/daiyongya/article/details/80963767

    • LINE 实验

      https://www.jianshu.com/p/f6a9af93d081

    "LINE 源码说明与运行" 参考此博客。

    • 【数学】时间复杂度 O(1) 的离散采样算法—— Alias method / 别名采样方法

            https://blog.csdn.net/haolexiao/article/details/65157026

    • Alias Method: 时间复杂度 O(1) 的离散采样方法

            https://zhuanlan.zhihu.com/p/54867139

    在 2017 年在北邮举办的 Google 开发者节上,一位来自北大的同学使用 Tensorflow 实现了 Line 的代码:

    https://github.com/snowkylin/line

    END

    往期回顾

    【1】《Computer vision》笔记 - shufflenet(10)

    【2】 Mask-RCNN 论文解读

    【3】 强化学习(四)用蒙特卡罗法(MC)求解

    【4】 LSTM 模型与前向反向传播算法

    【5】 Keras 使用进阶(Ⅰ)

    机器学习算法工程师

                                一个用心的公众号

    长按,识别,加关注

    进群,学习,得帮助

    你的关注,我们的热度,

    我们一定给你学习最大的帮助

    你点的每个赞,我都认真当成了喜欢

    全文完

    本文由 简悦 SimpRead 优化,用以提升阅读体验
    使用了 全新的简悦词法分析引擎 beta点击查看详细说明
     

    论文解读一阶近似结合一阶近似和二阶近似源码说明与运行编译 LINE 源码问题 1问题 2源码中存在的 bug源码解析Naive 方法存在性证明更快的构建方法分布式实现(腾讯 Angel)分布式实现原理

  • 相关阅读:
    Springboot + Mybatis 多数据源配置
    构建微服务:Spring boot 入门篇
    IDEA SpringBoot代码修改热部署/加载
    vue-cli知识点
    vuex知识点
    正则基本知识
    多行SQL语句拼成一条数据
    软件的版本控制
    ASP.NET 表单验证实现浅析
    建造者模式
  • 原文地址:https://www.cnblogs.com/cx2016/p/13211514.html
Copyright © 2020-2023  润新知