• Mahout LDA 聚类


    Mahout LDA 聚类

    一、LDA简介

      (一)主题模型

    在主题模型中,主题表示一个概念、一个方面,表现为一系列相关的单词,是这些单词的条件概率。形象来说,主题就是一个桶,里面装了出现概率较高的单词,这些单词与这个主题有很强的相关性。

     怎样才能生成主题?对文章的主题应该怎么分析?这是主题模型要解决的问题。

     首先,可以用生成模型来看文档和主题这两件事。所谓生成模型,就是说,我们认为一篇文章的每个词都是通过“以一定概率选择了某个主题,并从这个主题中以一定概率选择某个词语”这样一个过程得到的。那么,如果我们要生成一篇文档,它里面的每个词语出现的概率为:

                                                                                                 

    这个概率公式可以用矩阵表示:

                                                                                               

    其中”文档-词语”矩阵表示每个文档中每个单词的词频,即出现的概率;”主题-词语”矩阵表示每个主题中每个单词的出现概率;”文档-主题”矩阵表示每个文档中每个主题出现的概率。

    给定一系列文档,通过对文档进行分词,计算各个文档中每个单词的词频就可以得到左边这边”文档-词语”矩阵。主题模型就是通过左边这个矩阵进行训练,学习出右边两个矩阵。

     主题模型有两种:pLSA(ProbabilisticLatent SemanticAnalysis)和LDA(Latent Dirichlet Allocation),下面主要介绍LDA。

    (二)LDA介绍

         如何生成M份包含N个单词的文档,LatentDirichlet Allocation有三种方法。

    方法一:unigram model

         该模型使用下面方法生成1个文档:

         For eachofthe N words w_n:
                    Choose a word w_n ~ p(w);

        其中N表示要生成的文档的单词的个数,w_n表示生成的第n个单词w,p(w)表示单词w的分布,可以通过语料进行统计学习得到,比如给一本书,统计各个单词在书中出现的概率。

        这种方法通过训练语料获得一个单词的概率分布函数,然后根据这个概率分布函数每次生成一个单词,使用这个方法M次生成M个文档。其图模型如下图所示:

                                                                                                           

    方法二:Mixture of unigram

    unigram模型的方法的缺点就是生成的文本没有主题,过于简单,mixture of unigram方法对其进行了改进,该模型使用下面方法生成1个文档:

        Choose atopicz ~ p(z);

        For each ofthe N words w_n:

           Choose aword w_n ~ p(w|z);

        其中z表示一个主题,p(z)表示主题的概率分布,z通过p(z)按概率产生;N和w_n同上;p(w|z)表示给定z时w的分布,可以看成一个k×V的矩 阵,k为主题的个数,V为单词的个数,每行表示这个主题对应的单词的概率分布,即主题z所包含的各个单词的概率,通过这个概率分布按一定概率生成每个单词。

        这种方法首先选选定一个主题z,主题z对应一个单词的概率分布p(w|z),每次按这个分布生成一个单词,使用M次这个方法生成M份不同的文档。其图模型如下图所示:

                                                                                                 

          从上图可以看出,z在w所在的长方形外面,表示z生成一份N个单词的文档时主题z只生成一次,即只允许一个文档只有一个主题,这不太符合常规情况,通常一个文档可能包含多个主题。

    方法三:LDA(Latent Dirichlet Allocation)

        LDA方法使生成的文档可以包含多个主题,该模型使用下面方法生成1个文档:

        Chooseparameter θ ~ p(θ);

        For each ofthe N words w_n:

           Choosea topic z_n ~ p(z|θ);

            Choose a word w_n ~ p(w|z);

    其中θ是一个主题向量,向量的每一列表示每个主题在文档出现的概率,该向量为非负归一化向量;p(θ)是θ的分布,具体为Dirichlet分布,即分布的分布;N和w_n同上;z_n表示选择的主题,p(z|θ)表示给定θ时主题z的概率分布,具体为θ的值,即p(z=i|θ)= θ_i;p(w|z)同上。

    这种方法首先选定一个主题向量θ,确定每个主题被选择的概率。然后在生成每个单词的时候,从主题分布向量θ中选择一个主题z,按主题z的单词概率分布生成一个单词。其图模型如下图所示:

                                                                                                           

    从上图可知LDA的联合概率为:

                                                                                                         

            把上面的式子对应到图上,可以大致按下图理解:

                                                                                                        

    从上图可以看出,LDA的三个表示层被三种颜色表示出来:

    1. corpus-level(红色):α和β表示语料级别的参数,也就是每个文档都一样,因此生成过程只采样一次。

    2.document-level(橙色):θ是文档级别的变量,每个文档对应一个θ,也就是每个文档产生各个主题z的概率是不同的,所有生成每个文档采样一次θ。

    3. word-level(绿色):z和w都是单词级别变量,z由θ生成,w由z和β共同生成,一个 单词w对应一个主题z。

    通过上面对LDA生成模型的讨论,可以知道LDA模型主要是从给定的输入语料中学习训练两个控制参数α和β,学习出了这两个控制参数就确定了模型,便可以用来生成文档。其中α和β分别对应以下各个信息:

        α:分布p(θ)需要一个向量参数,即Dirichlet分布的参数,用于生成一个主题θ向量;

        β:各个主题对应的单词概率分布矩阵p(w|z)。

        把 w当做观察变量,θ和z当做隐藏变量,就可以通过EM算法学习出α和β,求解过程中遇到后验概率p(θ,z|w)无法直接求解,需要找一个似然函数下界来 近似求解,原文使用基于分解(factorization)假设的变分法(varialtional inference)进行计算,用到了EM算法。每次E-step输入α和β,计算似然函数,M-step最大化这个似然函数,算出α和β,不断迭代直到收敛。

    二、狄利克雷分布

    狄利克雷分布是一组连续多变量概率分布,是多变量普遍化的Β分布。为了纪念德国数学家约翰·彼得·古斯塔夫·勒热纳·狄利克雷(Peter Gustav Lejeune Dirichlet)而命名。狄利克雷分布常作为贝叶斯统计的先验概率。当狄利克雷分布维度趋向无限时,便成为狄利克雷过程(Dirichlet process)。狄利克雷分布奠定了狄利克雷过程的基础,被广泛应用于自然语言处理特别是主题模型(topic model)的研究。

    维度K ≥ 2的狄利克雷分布在参数α1, ..., αK > 0上、基于欧几里得空间RK-1里的勒贝格测度有个概率密度函数,定义为:

                                                                                                                  

    ,..., 并且,。 在(K − 1)维的单纯形开集上密度为0。

    归一化衡量B(α)是多项Β函数,可以用Γ函数(gamma function)表示:

                                                                                                            

    三、MapReduce实现

    (一)实现思路

    Mahout向量后后生成tf向量,tfidf向量,以及词典等。通过词典获取整个语料中词的个数(注意不是词频格式。实际就是词典大小)。输入数据为tf向量,LDA中根据词频计算概率。

    需要的参数:词典大小,主题个数,平滑因子,最大迭代次数。

    TF向量数据格式:

    Key:WritableComparable

    Value:VectorWritable

    迭代状态数据格式:迭代状态数据每一个主题,一个文件。

    Key:<主题索引,词索引>

    Value:Log(p(词|主题))

    在文件的最后一行数据为主题的概率和,主题和索引等于-1。

    Key:<主题索引,主题和索引>

    Value:Log(p(词|主题))

    计算词到主题的概率:迭代规则为,和上一次迭代的值,相差小于,并且迭代次数大于3次,则认为收敛。

    LDAState存储一次迭代的状态信息,属性有:

    int numTopics;

    主题个数

    int numWords;

    词个数

    double topicSmoothing;

    平滑因子

    Matrix topicWordProbabilities;

    P(词|主题)。矩阵列为词,行为主题。

    double[] logTotals;

    topicWordProbabilities 每一行的Log和的数组

    double logLikelihood;

    logTotals 的Log和

    InferredDocument为计算后得到的最终文档,属性有:

    Vector wordCounts;

    词频向量

    Vector gamma;

    P(主题),该文档对各个主题的概率向量。

    Matrix mphi;

    P(词|主题),该文档中词到主题的概率

    int[] columnMap;

    存储文档中词的索引,该索引对应mphi的列值。

    double logLikelihood;

     其中n=该文档词的个数。

    LDAInference计算P(主题|文档),核心属性:

    DenseMatrix phi;

    P(主题|文档)。

    LDAState state;

    每次迭代的状态。

    核心方法:

    InferredDocument infer(Vector wordCounts)

    通过文档的词频,推算出该文档中词的主题概率,P(主题|文档),主题有k个。

    Infer方法比较复杂,迭代计算p(主题|文档)。

    代码如下:

     public InferredDocument infer(Vector wordCounts) {

        double docTotal = wordCounts.zSum();//总词频数

        int docLength = wordCounts.size(); //词个数

        // initialize variational approximation to p(z|doc)

        Vector gamma = new DenseVector(state.getNumTopics());

        //p(主题|文档) =smoothing+docTotal/numTopics

        gamma.assign(state.getTopicSmoothing() + docTotal / state.getNumTopics());

        //下一轮迭代的P(主题|文档)

        Vector nextGamma = new DenseVector(state.getNumTopics());

        //存储 词和主题概率的矩阵

        createPhiMatrix(docLength);

       // 向量计算Gamma ;digamma(oldEntry) - digamma(gamma.zSum())

        Vector digammaGamma = digammaGamma(gamma);

        //保存词的索引

        int[] map = new int[docLength];

        //迭代计数器

        int iteration = 0;

        //收敛标志

        boolean converged = false;

        //上一轮迭代的Log 似然值

        double oldLL = 1.0;

        //迭代循环,如果收敛,并且迭代次数<最大迭代次数,则停止循环

        while (!converged && iteration < MAX_ITER) {

          //下一轮迭代的向量计算,给一个初始值,最小为smoothing值,默认为50/TopicNum

          nextGamma.assign(state.getTopicSmoothing()); // nG := alpha, for all topics

          //词索引

          int mapping = 0;

          //对每一个词,计算P(词|主题)

          for (Iterator<Vector.Element> iter = wordCounts.iterateNonZero(); iter.hasNext();) {

            Vector.Element e = iter.next();

            int word = e.index();//词索引

            //计算对一个词在各个主题上的概率  newP(主题|文档)=oldP(主题|文档)+digammaGamma(topic)-sum(oldP(主题|文档)+digammaGamma(topic))

            //对词word,计算每一个主题下的概率P(topic|word,doc),得到一个向量

            Vector phiW = eStepForWord(word, digammaGamma);

            //保存该词的newP(主题|文档)

            phi.assignColumn(mapping, phiW);

            if (iteration == 0) { // first iteration

             //对第一轮迭代,保存词的索引

              map[word] = mapping;

            }

            //对该词计算完p(主题|文档)之后,下一轮的p(主题|文档)=smoothing+e^newp(主题|文档)

            for (int k = 0; k < nextGamma.size(); ++k) {

              double g = nextGamma.getQuick(k);

              nextGamma.setQuick(k, g + e.get() * Math.exp(phiW.getQuick(k)));

            }

            //词索引+1

            mapping++;

          }

          //交换

          Vector tempG = gamma;

          gamma = nextGamma;

          nextGamma = tempG;

          //计算下一轮的 digammaGamma,看是否收敛。

          digammaGamma = digammaGamma(gamma);

          //计算Log似然

          double ll = computeLikelihood(wordCounts, map, phi, gamma, digammaGamma);

          // isNotNaNAssertion(ll);

          //判断是否收敛

          converged = oldLL < 0.0 && (oldLL - ll) / oldLL < E_STEP_CONVERGENCE;

          oldLL = ll;

          iteration++;

        }

        return new InferredDocument(wordCounts, gamma, map, phi, oldLL);

      }

    整体计算过程的流程图

    (二)MapReduce实现伪代码

    (1)计算词到主题的概率 p(词|主题)

    Do{

    If(第一次迭代){

    初始化LDAState,输入数据为每篇文档的TF向量。

    Map :输入WritableComparable<?> key,VectorWritable  wordCountsWritable

         1.用infer()方法计算P(词|主题),输出LDAInference.InferredDocument;

      2.for(词:wordcount){

    For(主题:k个主题){

    对每一个词过统计a=P(词|主题)+tf(词);

    输出:key <主题索引,词索引> ,value  a ;

    计算每个主题的Log 和,;

    }

     }  

                  For(主题:k个主题){

    对每个主题输出: key <主题索引,-1>,value 。

    }

     从InferredDocument获取该篇文档的Log似然值,输出:key<-2,-2>,value <log似然值>

     

    由于Map输入的数据的key是按照Key的第一个属性做Key之间的排序,Key第二个参数做相同主题索引内部按照词索引排序。因此需要多个Reduce去计算,相同主题的数据会汇聚在一起。

    Reduce :输入IntPairWritable topicWord,Iterable<DoubleWritable> values

               1.如果topicWord的第二个参数等于-2

    对values求和Sum=sum(values),输出key:topicWord,value:Sum 。

               2.如果topicWord不等以-2

      对values求Log和logSum=logSum(values),输出key:topicWord,value:logSum。

    }

    从Reduce输出数据中找出key=-2的数据,该数据记录最终的Log似然值。

    }while(Log似然值和上次迭代的值的差<阈值&&迭代次数>3)

    (2)计算主题到文档的概率 p(文档|主题)

    该过程较为简单,下面是流程:

    输入数据为Mahout向量化生成的tf向量,该文件是SequenceFile格式在执行MapReduce之前将上步骤计算得到的最终LDAState信息写入Configuration中。

    Mapreduce{

    LDAInference infer=null;

    Setup(Contenxt context){

    Configuration conf  =Context.getConfiguration();

    从conf中初始化LDAState,创建LDAInference对象

    }

    Map(WritableComparable<?> key,VectorWritable wordCountsWritable){

           LDAInference.InferredDocumentdoc=Infer.infer(wordCountsWritable.get())

           Vector grammer = doc.getGrammer();//获取该片文档的向量。

    输出:key  <key> ,value  grammer 。

    }

    }

    在计算完之后,每篇文档以概率归属于主题(簇),完成聚类。

    四、API说明

    API

    LDADriver.main(args);

    --input(-i)

    输入路径

    --outpu(-o)

    输出路径

    --numTopic(k)

    距离类权限命名,如“org.apache.mahout.common.distance.Cosine

    DistanceMeasure”

    --numWords(-v)

    字典中词的个数

    --topicSmoothing(-a)

    平滑因子

    --maxIter(-x)

    最大迭代次数

    --overwrite(-ow)

    是否覆盖上次操作

     

    示例

    String   [] arg={

                        "--input","vector/tf-vectors",

                        "--output","cluster/lda",

                        "--maxIter","10",

                        "--numWords",Integer.toString(getNumberWord()),

                        "-ow",

                        "-k","5",

                        "-a","1",

            };

            LDADriver.main(arg);

    private static int getNumberWord() {

            Configuration  conf =new Configuration();

            int size =0  ;

            String path ="vector/dictionary.file-0";

            Path p = new Path(path);

            try {

                FileSystem fs =FileSystem.get(conf);

                SequenceFile.Reader  reader =new SequenceFile.Reader(fs, p, conf);

                Text  key =new Text();

                IntWritable  val = new IntWritable();

                while(reader.next(key, val)){

                    size++;

                }

                reader.close();

            } catch (IOException e) {

                e.printStackTrace();

            }

            return size;

        }

     

    输出

    结果文件

    Key类型

    Value类型

    说明

    state-*

    词id

    (org.apache.mahout.common.IntPairWritable)

    概率

    (org.apache.hadoop.io.DoubleWritable)

    每条记录词在主题中

    的概率

    docTopics

    文档名

    (org.apache.hadoop.io.

    Text)

    主题概率向量

    (org.apache.mahout.math.VectorWritable)

    每条记录文档在每一个主题中的概率

    注:state-*中*代表数字,第i次迭代产生的类信息即为state-i

    获取主题词

    String paramter={"-i","cluster/lda/state-10/part-r-00000",

                    "-o","cluster/lda/topicword",

                    "-d","vector/dictionary.file-0",

                    "-w","100",

                    "-dt","sequencefile"};

    try {

        LDAPrintTopics.main(paramter);

    } catch (Exception e) {

        e.printStackTrace();

    }

    主题词

    topic_0

    投资 [p(投资|topic_0) = 0.0015492366427771458

    高 [p(高|topic_0) = 0.0015273771596218703

    技术 [p(技术|topic_0) = 0.0015095450740278751

    显示器 [p(显示器|topic_0) = 0.0014457162815720266

    价格 [p(价格|topic_0) = 0.0014157641894706173

    保护 [p(保护|topic_0) = 0.00138132776777818

    百分之 十 [p(百分之 十|topic_0) = 0.0013331629238128447

    污染 [p(污染|topic_0) = 0.0013164426156763646

    新 [p(新|topic_0) = 0.001301751683798756

    水平 [p(水平|topic_0) = 0.0012592755046689143

    生产 [p(生产|topic_0) = 0.001256843784029875

    美元 [p(美元|topic_0) = 0.001249314717733267

    社会 [p(社会|topic_0) = 0.0012408756121875936

    新华社 [p(新华社|topic_0) = 0.0011519411386924348

    性能 [p(性能|topic_0) = 0.0011415742668732395

    世界 [p(世界|topic_0) = 0.001108939062967409

    卡 [p(卡|topic_0) = 0.0011073851700048446

    topic_1

    发展 [p(发展|topic_1) = 0.0010367108983512356

    里 [p(里|topic_1) = 0.0010264367393987117

    以色列 [p(以色列|topic_1) = 0.0010203030656414595

    美 [p(美|topic_1) = 0.0010098497294139764

    和平 [p(和平|topic_1) = 0.0010072336185989732

    南非 [p(南非|topic_1) = 9.970364644283794E-4

    外长 [p(外长|topic_1) = 9.790968522072987E-4

    主席 [p(主席|topic_1) = 9.594381093792323E-4

    欧洲 [p(欧洲|topic_1) = 9.481344847644805E-4

    社会 [p(社会|topic_1) = 9.440402086928081E-4

    阿拉伯 [p(阿拉伯|topic_1) = 9.348290756756439E-4

    组织 [p(组织|topic_1) = 9.32012686103732E-4

    德国 [p(德国|topic_1) = 9.268633693819358E-4

    朝鲜 [p(朝鲜|topic_1) = 8.931224650833228E-4

    苏 [p(苏|topic_1) = 8.910428550825637E-4

    topic_2

    教育 [p(教育|topic_2) = 0.008584798058817686

    年 [p(年|topic_2) = 0.005812810454823121

    文化 [p(文化|topic_2) = 0.005200790154307282

    学校 [p(学校|topic_2) = 0.00488176317948141

    学生 [p(学生|topic_2) = 0.004385284373584114

    艺术 [p(艺术|topic_2) = 0.004113540629625192

    教师 [p(教师|topic_2) = 0.003688111560721313

    中 [p(中|topic_2) = 0.003628554717923196

    工作 [p(工作|topic_2) = 0.003560992943393529

    发展 [p(发展|topic_2) = 0.0034561933711076587

    教学 [p(教学|topic_2) = 0.003040076495937448

    文艺 [p(文艺|topic_2) = 0.0027817800055453673

    活动 [p(活动|topic_2) = 0.0025937696439997486

    建设 [p(建设|topic_2) = 0.002378781489362247

    新 [p(新|topic_2) = 0.0023389854338597997

    万 [p(万|topic_2) = 0.002219424364815702

    社会 [p(社会|topic_2) = 0.0021802029814002436

    创作 [p(创作|topic_2) = 0.002179560682289749

    全国 [p(全国|topic_2) = 0.0021240341226827653

    演出 [p(演出|topic_2) = 0.002015075633783566

    群众 [p(群众|topic_2) = 0.0018663235736991741

    中国 [p(中国|topic_2) = 0.0018078100095809246

    topic_3

    美国 [p(美国|topic_3) = 0.0018871756132363858

    关系 [p(关系|topic_3) = 0.0018730020797722282

    国 [p(国|topic_3) = 0.0018352587164256568

    杨 [p(杨|topic_3) = 0.001792604469475523

    两 国 [p(两 国|topic_3) = 0.0015466516959360384

    武器 [p(武器|topic_3) = 0.0014739363599760385

    函数 [p(函数|topic_3) = 0.0014210179313849487

    访问 [p(访问|topic_3) = 0.0014181556734449733

    次 [p(次|topic_3) = 0.001384694211818456

    导弹 [p(导弹|topic_3) = 0.0013754065616954653

    国家 [p(国家|topic_3) = 0.001318748795376146

    合作 [p(合作|topic_3) = 0.001308329849078051

    战争 [p(战争|topic_3) = 0.001290647454630511

    友好 [p(友好|topic_3) = 0.0012163545626787365

    美军 [p(美军|topic_3) = 0.001213486418032589

    作战 [p(作战|topic_3) = 0.0011934873821581747

    topic_4

    技术 [p(技术|topic_4) = 0.00262424934899734

    新 [p(新|topic_4) = 0.0025183430782149074

    美国 [p(美国|topic_4) = 0.0024577437259916592

    发展 [p(发展|topic_4) = 0.002428041112420275

    市场 [p(市场|topic_4) = 0.0022165251346597517

    企业 [p(企业|topic_4) = 0.002037478990168766

    增长 [p(增长|topic_4) = 0.0020264394305932773

    公司 [p(公司|topic_4) = 0.0019763101672085285

    信 [p(信|topic_4) = 0.00194764142386995

    时 [p(时|topic_4) = 0.0019293192643122352

    政府 [p(政府|topic_4) = 0.0018874822879183508

    环境 [p(环境|topic_4) = 0.0017705263949722068

    国家 [p(国家|topic_4) = 0.001597079401022189

    高 [p(高|topic_4) = 0.0015363742593716748

    五、参考文献

    1.《Latent DirichletAllocation》

    2.博客http://blog.csdn.net/huagong_adu/article/details/7937616

    3.博客 http://www.xperseverance.net/blogs/tag/lda/


  • 相关阅读:
    Windows下压缩成tar.gz格式
    mysql 创建索引和删除索引
    jQuery鼠标事件
    MySql like模糊查询使用详解
    eclipse不能更改设置tomcat 中的ServerLocation问题
    eclipse安装tomcate插件步骤
    php折线图 布局图
    mysql 存储过程详解 存储过程
    解决Toad for Oracle显示乱码问题
    Readings in Databases
  • 原文地址:https://www.cnblogs.com/cl1024cl/p/6205090.html
Copyright © 2020-2023  润新知