• NEU(Fst Network Embedding Enhancement via High Order Proximity Approximation)


    NEU(Fst Network Embedding Enhancement via High Order Proximity Approximation)

    NEU:通过对高阶相似性的近似,加持快速网络嵌入

    NRL的框架总结

    • First, Clarify the notations and formalize the problem of NRL.
    • Then, Introduce the concept of k-order proximity.
    • Finally, Summarize an NRL framework based on proximity matrix factorization and show that the aforementioned NRL methods fall into the category.

    定义本文处理的图是无权无向图。这也是他的局限性。这是一个NEU算法的缺点!

    对角阵 (D_{ii}=d_i)(v_i)节点的度。(A=D^{-1} widetilde A) ,是对邻接矩阵(widetilde A)的归一化结果。
    Laplacian Matrix: (widetilde L = D - widetilde A), 这是把(widetilde A)全取反再在对角线上加上(v_i)的度数。
    Normalized Laplacian Matrix: $ L = D^{-frac{1}{2}}widetilde L D^{-frac{1}{2}} $

    这俩Laplacian matrix 拿来何用?

    K-order proximity

    $ A(和)widetilde L$ characterize 一阶相似性,建模局部节点对的proximity。
    还是沿用GraRep的K-step转移概率矩阵:transition probability matrix 作为k-order proximity matrix.
    (A^k = underbrace{A cdot A ... A}_{k})

    NRL Framework

    Step1: Proximity Matrix Construction 相似性矩阵建立
    相似性矩阵(M in mathbb R^{|V| imes |V|})编码了 (k) 阶相似性,(k = 1,2,...,K) .有(A)是normalized邻接矩阵, (M=frac{A+A^2+...+A^K}{K})表示了K阶相似性矩阵的联合再平均。(M)通常是由(A)(K)级的多项式表示,文章记为(f(A) in mathbb R^{|V| imes |V|}), (K)级是多少,depends on 相似度矩阵proximity matrix要表达的最大的proximity阶数。

    Step2: Dimension Reduction 维数约减
    寻找2个矩阵,(R)(C).

    • (R in mathbb R^{|V| imes d}) 是节点的低维向量表达,
    • (C in mathbb R^{|V| imes d})是context角色时,节点的低维向量表达。

    矩阵的乘积(R cdot C^T)就是对原网络的相似性矩阵(M)的近似。这里,不同的算法对(R cdot C^T)(M)的距离有不同的描述,employ different distance function. 比如,用(M- R cdot C^T)

    前人的方法与本框架的关系
    Spectral Clustering:
    DeepWalk:
    GraRep:
    TADW:
    LINE:

    观察和Problem Formalization

    既然是2步框架,第一步是建立proximity matrix,怎么建立一个好的proximity matrix for NRL.在这篇文章里讨论。
    至于第二步,维数约减,future Work.

    Observation 1: 更高阶的,和更精确的proximity matrix可以提升模型的学习效果。也就是说,如果探索一个更高阶的polynomial proximity matrix (f(A)),NRL可以因此受益。

    Observation 2:对大规模网络来说,对高阶的proximity matrix的精确计算是不可行的。实际上对proximity matrix的计算takes (O(|V|^2)) time. SVD的时间复杂度也随k 的增大,get dense,从而增加。

    其实Observation1&2是矛盾的,前者要更精确,更高阶。后者又表明越高阶越难算。
    因此如何高效地获得高阶的proximity matrix变为一个问题。
    文章的解决方案是,先对低阶的proximity matrix的信息进行编码,以此作为一个基础,来避免重复的计算。

    问题的构建
    有个假设,(R)(C)是某个NRL算法学到的表达,(R cdot C^T)(K)阶的多项式proximity matrix (f(A)) 构成近似。目的就是学到一个更好的(R')(C'),它俩可以构成对(g(A))的近似,这个(g(A))(f(A))更高阶。并且,算法还要高效,should be efficient in the linear time of (|V|). 注意,时间复杂度下界是(O(|V|d)) ,which is the size of embedding matrix (R).

  • 相关阅读:
    搭建Keil C51开发环境
    源码分析之Handler
    Android中的算法
    Android中的数据结构
    高级UI-UI绘制流程
    高级UI-Path和PathMeasure
    高级UI-画板Canvas
    高级UI-滤镜和颜色通道
    高级UI-高级渲染
    高级UI-画笔Paint
  • 原文地址:https://www.cnblogs.com/sonictl/p/9041621.html
Copyright © 2020-2023  润新知